Stanford ve Washington Üniversitesi’nden araştırmacılar, yalnızca 50 dolarlık bulut işlem kredisiyle OpenAI’ın gelişmiş yapay zeka modelleriyle rekabet edebilecek seviyede bir yapay zeka modeli geliştirdi. “s1” adı verilen bu model, OpenAI’ın o1 ve DeepSeek’in R1 modellerine yakın bir performans sergileyerek, büyük bütçelerle geliştirilen yapay zeka modellerine gerçekten gerek olup olmadığı konusunda soru işaretleri yarattı. Özellikle düşük maliyetle güçlü bir modelin eğitilebilmesi, yapay zeka alanındaki yatırım anlayışının sorgulanmasına neden oldu.
50 dolar maliyetle OpenAI’a rakip yapay zeka tasarlandı
s1 modeli, GitHub üzerinden açık kaynak olarak erişime sunulmuş durumda. Araştırmacılar, bu modeli oluştururken mevcut bir yapay zeka modelini baz alıp “damıtma” (distillation) yöntemiyle eğitti. Bu süreçte, Google’ın Gemini 2.0 Flash Thinking Experimental modelinin yanıtları kullanılarak s1’in akıl yürütme yetenekleri geliştirildi. Benzer yöntemler daha önce de kullanılmıştı, ancak en dikkat çekici nokta, s1’in sadece 50 dolarlık bir maliyetle ortaya çıkması oldu. Geçtiğimiz aylarda Berkeley Üniversitesi’nden araştırmacılar, benzer bir yapay zeka modelini eğitmek için 450 dolar harcamıştı. Ayrıca, OpenAI modellerini damıtarak kendi modellerini eğittiği söylenen DeepSeek’in de benzer bir strateji izlediği biliniyor.
![50 dolar maliyetle OpenAI’a rakip yapay zeka tasarlandı.](https://www.techinside.com/wp-content/uploads/2024/07/openai-gpt-5-cikacak-mi-kapak-768x432.webp)
Bu tür düşük bütçeli başarılar, büyük teknoloji şirketlerinin milyarlarca dolarlık yapay zeka yatırımlarının sürdürülebilirliği konusunda yeni tartışmalara yol açıyor. Eğer küçük araştırma ekipleri birkaç yüz dolara rekabetçi modeller üretebiliyorsa, büyük çaplı yatırımların gerçekten gerekli olup olmadığı merak konusu haline geliyor. Ancak burada dikkat edilmesi gereken bir nokta var: s1’in eğitimi sırasında kullanılan Gemini 2.0 Flash Thinking Experimental modeli, Google AI Studio üzerinden ücretsiz erişime açık olsa da, Google’ın kullanım koşulları modellerin tersine mühendislik ile yeniden oluşturulmasını yasaklıyor. Şirketin bu konudaki tutumu ve olası yaptırımları henüz netlik kazanmış değil.
Araştırmacılar, s1 modelini geliştirirken yapay zeka modellerinin belirli davranışları taklit edebilmesi için denetimli ince ayar (SFT) yöntemini kullandı. Modelin akıl yürütme yetenekleri, nispeten küçük bir veri kümesiyle damıtılarak geliştirildi. Çinli teknoloji devi Alibaba’nın Qwen laboratuvarına ait küçük ölçekli açık kaynak bir model üzerine inşa edilen s1, 1.000 özenle seçilmiş soru ve bu soruların ayrıntılı düşünme süreçleriyle eğitildi. Eğitim süreci sadece 30 dakika sürerken, 16 adet Nvidia H100 GPU kullanıldı.
Meta, Google ve Microsoft gibi devler, 2025 yılı içinde yapay zeka altyapısına yüz milyarlarca dolar yatırım yapmayı planlarken, s1 gibi projeler büyük yatırımlar olmadan da güçlü yapay zeka modellerinin ortaya çıkarılabileceğini gösteriyor. Ancak burada göz ardı edilmemesi gereken kritik bir nokta var: Damıtma yöntemi her zaman mükemmel sonuçlar vermeyebilir. Bunu bir öğretmen-öğrenci ilişkisine benzetmek mümkün. Öğretmen, öğrencisine bildiklerini aktarabilir, ancak bunu yaparken kendi hatalarını ve yanlı duruşunu da farkında olmadan aktarabilir.
Damıtma yöntemi, genellikle büyük ve güçlü modellerin yeteneklerini daha küçük ve verimli modellere aktarmak için kullanılır. Ancak bu süreç, sıfırdan yeni ve daha güçlü modeller yaratmak için yeterli değildir. Yani, damıtılan bir model genellikle eğitildiği modelin kapasitesini aşamaz. Gerçek dünyada zaman zaman öğrenci öğretmeni geçebilir, ancak yapay zeka dünyasında damıtma yöntemleriyle küçük bir modeli çok daha üstün hale getirmek pek mümkün değildir. Yine de, güçlü modelleri isabetli bir şekilde taklit edebilmek ve ince ayarlamalarla belirli açılardan daha iyi hale getirmek mümkün olabilir. Ancak tamamen yeni ve güçlü yapay zeka modelleri yaratmak için hâlâ büyük yatırımlar gerekiyor.