Ya da en azından OpenAI ile ilgili vermek istedikleri izlenim bu.
OpenAI, “süper zeki” yapay zeka sistemlerini, yani insanlarınkini çok aşan zekaya sahip teorik sistemleri yönlendirmek, düzenlemek ve yönetmek için yollar geliştirmek üzere Temmuz ayında Superalignment ekibini kurdu.
Burns, “Bugün, temelde bizden daha aptal olan veya belki de en fazla insan seviyesindeki modelleri hizalayabiliyoruz.” dedi.
Superalignment çabası, OpenAI kurucu ortağı ve baş bilim adamı Ilya Sutskever tarafından yönetiliyor; ancak Sutskever’in başlangıçta Altman’ın kovulması için baskı yapanlar arasında olduğu gerçeği ışığında şimdi kesinlikle kaşlarını kaldırıyor.
Bazı raporlar, Altman’ın dönüşünün ardından Sutskever’in “belirsizlik durumunda” olduğunu öne sürerken, OpenAI’in halkla ilişkiler raporu Sutskever’in gerçekten de Superalignment ekibinin başında olduğunu söylüyor.
Superalignment, yapay zeka araştırma topluluğu içinde biraz hassas bir konudur. Bazıları alt alanın erken olduğunu iddia ediyor; diğerleri bunun kırmızı bir ringa balığı olduğunu ima ediyor.
Altman, OpenAI ile Manhattan Projesi arasında karşılaştırmalar yapılması çağrısında bulunurken, kimyasal ve nükleer tehditler de dahil olmak üzere “felaket risklerine” karşı koruma sağlayacak yapay zeka modellerini araştırmak için bir ekip oluşturacak kadar ileri gitti; ancak bazı uzmanlar, girişimin teknolojisinin işe yarayacağını gösteren çok az kanıt olduğunu söylüyor.
Bu uzmanlar, süper zekanın yakında olacağı iddialarının, yalnızca algoritmik önyargı ve yapay zekanın toksisiteye yönelik eğilimi gibi günümüzün acil yapay zeka düzenleyici sorunlarından kasıtlı olarak dikkati uzaklaştırmaya ve dikkati dağıtmaya hizmet ettiğini ekliyor.
Ne olursa olsun Suksever, yapay zekanın bir gün varoluşsal bir tehdit oluşturabileceğine ciddi olarak inanıyor gibi görünüyor. Bildirildiğine göre, yapay zekanın insanlığa zarar vermesini engelleme konusundaki kararlılığını göstermek için tesis dışındaki bir şirkette ahşap bir heykel yaptırıp yakacak kadar ileri gitti ve Superalignment ekibi için OpenAI’in hesaplamasının önemli bir kısmını yönetti.
Aschenbrenner, “Yapay zekanın gelişimi son zamanlarda olağanüstü derecede hızlı oldu ve sizi temin ederim ki yavaşlamıyor.” dedi. “Sanırım çok yakında insan seviyesindeki sistemlere ulaşacağız, ancak bu burada bitmeyecek; doğrudan insanüstü sistemlere geçeceğiz… Peki insanüstü yapay zeka sistemlerini nasıl hizalayacağız ve onları güvenli hale getireceğiz? Bu gerçekten tüm insanlığın sorunu; belki de çağımızın çözülmemiş en önemli teknik sorunu.”
Superalignment ekibi şu anda gelecekteki güçlü yapay zeka sistemlerine iyi uygulanabilecek yönetişim ve kontrol çerçeveleri oluşturmaya çalışıyor . “Süper zeka” tanımının ve belirli bir yapay zeka sisteminin bunu başarıp başaramadığının ciddi bir tartışma konusu olduğu göz önüne alındığında, bu basit bir görev değil. Ancak ekibin şimdilik kararlaştırdığı yaklaşım, daha gelişmiş, karmaşık bir modeli (GPT- 4) istenen yönlere ve istenmeyen yönlerden uzaklaştırmak için daha zayıf, daha az karmaşık bir yapay zeka modelinin (örneğin GPT-2) kullanılmasını içeriyor.
Burns, “Yapmaya çalıştığımız şeylerin çoğu, bir modele ne yapması gerektiğini söylemek ve bunu yapmasını sağlamak.” dedi. “Talimatları takip edecek ve uydurma değil, yalnızca doğru olan şeylere yardımcı olacak bir modeli nasıl elde ederiz? Oluşturduğu kodun güvenli mi yoksa kötü bir davranış mı olduğunu bize söyleyecek bir modele nasıl sahip olabiliriz? Bunlar araştırmamızla başarmak istediğimiz görev türleridir.“
Ama bekleyin, diyebilirsiniz ki; yapay zekaya rehberlik eden yapay zekanın, insanlığı tehdit eden yapay zekayı önlemekle ne ilgisi var? Bu bir benzetme: Zayıf model, insan denetçilerin vekili anlamına gelirken; güçlü model, süper akıllı yapay zekayı temsil ediyor. Superalignment ekibi, süper akıllı bir yapay zeka sistemini anlamlandıramayan insanlara benzer şekilde, zayıf modelin güçlü modelin tüm karmaşıklıklarını ve nüanslarını “anlayamayacağını” ve bu kurulumun süper hizalanma hipotezlerini kanıtlamak için yararlı hale getirdiğini söylüyor.
Izmailov, “Altıncı sınıf öğrencisinin bir üniversite öğrencisini denetlemeye çalıştığını düşünebilirsiniz.” dedi. “Diyelim ki altıncı sınıf öğrencisi üniversite öğrencisine nasıl çözeceğini bildiği bir görevi anlatmaya çalışıyor… Altıncı sınıf öğrencisinin denetimi ayrıntılarda hatalara sahip olsa da, üniversite öğrencisinin konunun özünü anlayacağına dair umut var ve görevi amirden daha iyi yapabilecektir.”
Superalignment ekibinin kurulumunda, belirli bir göreve göre ince ayar yapılan zayıf bir model, o görevin genel hatlarını güçlü modele “iletmek” için kullanılan etiketler üretir. Ekip, bu etiketler göz önüne alındığında, zayıf modelin etiketlerinde hatalar ve önyargılar olsa bile, güçlü modelin zayıf modelin amacına göre az çok doğru genelleme yapabildiği sonucuna vardı.
Ekip, zayıf-güçlü model yaklaşımının halüsinasyonlar alanında çığır açıcı gelişmelere bile yol açabileceğini iddia ediyor.
Aschenbrenner, “Halüsinasyonlar aslında oldukça ilginç, çünkü model aslında söylediği şeyin gerçek mi yoksa kurgu mu olduğunu dahili olarak biliyor.” dedi. “Ancak bugün bu modellerin eğitilme şekline göre, insan yöneticiler onları bir şeyler söyledikleri için ‘beğeniyorum’ veya ‘beğenmiyorum’ şeklinde ödüllendiriyor. Dolayısıyla bazen insanlar, istemeden de olsa yanlış olan veya modelin aslında bilmediği şeyler söylediği için modeli ödüllendirirler. Araştırmamızda başarılı olursak, temel olarak modelin bilgisini toplayabileceğimiz ve bu çağrıyı bir şeyin gerçek mi yoksa kurgu mu olduğuna uygulayabileceğimiz ve bunu halüsinasyonları azaltmak için kullanabileceğimiz teknikler geliştirmeliyiz.“
Ancak benzetme mükemmel değil. Bu nedenle OpenAI fikirlerin kitle kaynak yoluyla sağlanmasını istiyor.
Bu amaçla OpenAI, süper zeka uyumuna ilişkin teknik araştırmaları desteklemek için 10 milyon dolarlık bir hibe programı başlatıyor; bunun dilimleri akademik laboratuvarlara, kar amacı gütmeyen kuruluşlara, bireysel araştırmacılara ve lisansüstü öğrencilere ayrılacak.
OpenAI ayrıca 2025’in başlarında süper hizalama üzerine bir akademik konferansa ev sahipliği yapmayı planlıyor ve burada süper hizalama ödülü finalistlerinin çalışmalarını paylaşacak ve tanıtacak.
İlginç bir şekilde, hibenin finansmanının bir kısmı eski Google CEO’su ve başkanı Eric Schmidt’ten gelecek. Altman’ın ateşli bir destekçisi olan Schmidt, tehlikeli yapay zeka sistemlerinin gelişinin yakın olduğunu ve düzenleyicilerin hazırlık konusunda yeterince çaba göstermediğini ileri sürerek hızla yapay zeka felaketinin poster çocuğu haline geliyor.
Bu mutlaka bir fedakarlık duygusundan kaynaklanmıyor. Wired’da yer alan bir rapor, aktif bir yapay zeka yatırımcısı olan Schmidt’in, ABD hükümetinin yapay zeka araştırmalarını desteklemek için önerdiği planı uygulamaya koyması durumunda ticari olarak büyük fayda sağlayacağını belirtiyor.
O halde bağış, alaycı bir bakış açısıyla erdem sinyali olarak algılanabilir. Schmidt’in kişisel serveti tahminen 24 milyar dolar civarında ve kendisininki de dahil olmak üzere, daha az etik odaklı yapay zeka girişimlerine ve fonlarına yüz milyonlarca dolar akıttı.
Schmidt elbette durumun böyle olduğunu reddediyor.
Bir açıklamada, “Yapay zeka ve diğer gelişen teknolojiler ekonomimizi ve toplumumuzu yeniden şekillendiriyor.” dedi. “Onların insani değerlerle uyumlu olmasını sağlamak kritik önem taşıyor ve OpenAI’nin yapay zekayı kamu yararına sorumlu bir şekilde geliştirmesi ve kontrol etmesine yönelik yeni [bağışlarını] desteklemekten gurur duyuyorum.“
Gerçekten de, bu kadar şeffaf ticari motivasyonlara sahip bir şahsın katılımı şu soruyu akla getiriyor: OpenAI’in süper hizalama araştırması ve topluluğu gelecekteki konferansa sunmaya teşvik ettiği araştırma, herkesin uygun gördüğü şekilde kullanmasına açık olacak mı?
Superalignment ekibi, hem OpenAI’in araştırmalarının hem de OpenAI’den hibe ve ödül alan diğer kişilerin Superalignment ile ilgili çalışmalara ilişkin çalışmalarının kamuya açık olarak paylaşılacağına dair güvence verdi.
Aschenbrenner, “Yalnızca modellerimizin güvenliğine değil, diğer laboratuvar modellerinin ve genel olarak gelişmiş yapay zekanın güvenliğine de katkıda bulunmak misyonumuzun bir parçası.” dedi. “Bu, tüm insanlığın yararına güvenli bir şekilde [AI] inşa etme misyonumuzun gerçekten temelini oluşturuyor. Ve bu araştırmayı yapmanın, onu faydalı ve güvenli hale getirmek için kesinlikle gerekli olduğunu düşünüyoruz.”