Site icon TechInside

DataGemma RAG kullanarak bir ilki yapıyor!

DataGemma RAG

Giderek popülerlik kazanan, geri çağırma-artırılmış üretim (veya kısaca RAG) olarak bilinen üretken yapay zeka tekniği, işletmelerin gözde projesiydi ancak artık yapay zekanın ana sahnesine geliyor.

Google, Gemma açık kaynaklı büyük dil modelleri (LLM’ler) ve kamuya açık veriler için Data Commons projesinin bir kombinasyonu olan DataGemma’yı tanıttı. DataGemma, bir sorgu istemine yanıt vermeden önce verileri almak için RAG yaklaşımlarını kullanıyor. Google’ın söylediğine göre amaç, “Veri Ortakları’nın bilgisini kullanarak LLM gerçekliğini ve muhakemesini geliştirerek” “halüsinasyonları” önlemek için üretken yapay zekayı temellendirmektir.

DataGemma RAG kullanıyor

RAG, işletmelerin LLM derecelerini kendi tescilli kurumsal verilerine dayandırmalarını sağlamak için popüler bir yaklaşım haline gelirken, Data Commons’ın kullanımı, RAG’ın bulut tabanlı Gen AI ölçeğinde bugüne kadarki ilk uygulamasını temsil ediyor.

Data Commons, herkesin erişebildiği veri tabanları oluşturmanıza olanak tanıyan açık kaynaklı bir geliştirme çerçevesidir. Ayrıca, verilerini herkesin erişimine açan Birleşmiş Milletler gibi kurumlardan gerçek veriler toplar. Google, ikisini birbirine bağlarken “iki farklı yaklaşım” benimsediğini belirtiyor.

İlk yaklaşım, “Dünyada yenilenebilir enerji kullanımı arttı mı?” gibi istemde girilen belirli soruların gerçekliğini kontrol etmek için Data Commons’ın herkese açık istatistiksel verilerini kullanmaktır. Google’ın Gemma’sı, belirli istatistiklere atıfta bulunan bir iddiayla istemi yanıtlayacaktır. Google buna “geri alma-araya alınmış üretim” veya RIG adını verir. İkinci yaklaşımda, Google’ın belirttiğine göre, verilerin kaynaklarını belirtmek ve “daha kapsamlı ve bilgilendirici çıktılar sağlamak” için tam RAG kullanılır. Gemma AI modeli, Google’ın kapalı kaynak modeli Gemini 1.5’in “uzun bağlam penceresi”nden yararlanır . Bağlam penceresi, AI modelinin geçici bellekte depolayıp üzerinde işlem yapabileceği token (genellikle kelimeler) girdi miktarını temsil eder.

Gemini, Gemini 1.5’i 128.000 jetonluk bir bağlam penceresinde duyuruyor, ancak sürümleri girdiden bir milyon jetona kadar hokkabazlık yapabiliyor. Daha büyük bir bağlam penceresine sahip olmak, Data Commons’tan alınan daha fazla verinin bellekte tutulabileceği ve sorgu istemine bir yanıt hazırlanırken model tarafından incelenebileceği anlamına gelir. 

Exit mobile version