Bunun Google için kötü bir görünüm olduğunu söylemeye gerek bile yok. Bu durum, GenAI araçlarının dezenformasyon ve genel olarak yanıltma amacıyla kullanılmasının kolaylığından duydukları hoşnutsuzluğun sinyalini veren politika yapıcıların da öfkesini kışkırtıyor.
Buna yanıt olarak, geçen mali çeyreğe göre binlerce iş hafifleyen Google, yatırımlarını yapay zeka güvenliğine yönlendiriyor. En azından resmi hikaye bu.
Bu sabah Google DeepMind, genişletilmiş bir AI Güvenliği ve Hizalaması organizasyonunun oluşturulduğunu duyurdu.
DeepMind’ın sitesindeki iş listelerinin ötesinde Google, yeni organizasyonun kurulması sonucunda kaç kişinin işe alınacağını söylemedi. Ancak AI Güvenlik ve Hizalamanın, yapay genel zeka (AGI) veya bir insanın yapabileceği herhangi bir görevi yerine getirebilecek varsayımsal sistemler etrafında güvenliğe odaklanan yeni bir ekibi içereceğini ortaya çıkardı.
OpenAI’in geçen Temmuz ayında kurduğu Superalignment bölümüyle benzer bir misyona sahip olan, AI Safety and Alignment içindeki yeni ekip; aynı zamanda, henüz gerçekleştirilmemiş süper zeki AI’in kontrolüne yönelik teknik zorlukların çözümlerini araştıran ve DeepMind’ın mevcut AI güvenliği odaklı araştırma ekibi olan Scalable Alignment ile birlikte çalışacak.
Neden iki grup aynı problem üzerinde çalışıyor? Geçerli bir soru ve Google’ın bu noktada çok fazla ayrıntı açıklama konusundaki isteksizliği göz önüne alındığında spekülasyon gerektiren bir soru. Ancak şirketin AI rakiplerine ayak uydurmak için agresif bir şekilde hareket ettiği ve bir yandan sorumlu bir proje oluşturmaya çalıştığı bir zamanda, yeni ekibin – Yapay Zeka Güvenliği ve Hizalama ekibinin – göletin karşısı yerine eyalet tarafında, Google Genel Merkezi’nin yakınında olması dikkate değer görünüyor. Yapay zekaya ölçülü bir yaklaşım.
AI Güvenlik ve Hizalama kuruluşunun diğer ekipleri, somut koruma önlemlerinin geliştirilmesinden ve Google’ın mevcut ve geliştirilmekte olan Gemini modellerine dahil edilmesinden sorumlu. Güvenlik geniş bir kapsama alanı. Ancak örgütün yakın vadedeki odak noktalarından bazıları kötü tıbbi tavsiyelerin önlenmesi, çocukların güvenliğinin sağlanması ve “önyargıların ve diğer adaletsizliklerin artmasının önlenmesi” olacak.
Eskiden Waymo kadrolu araştırma bilimcisi ve UC Berkeley bilgisayar bilimi profesörü olan Anca Dragan ekibe liderlik edecek.
Dragan, konu üzerine şunları söyledi: “(Yapay Zeka Güvenliği ve Hizalama organizasyonundaki) çalışmalarımız, modellerin insan tercihlerini ve değerlerini daha iyi ve daha sağlam bir şekilde anlamalarını sağlamayı amaçlıyor.”
Dragan’ın AI güvenlik sistemleri konusunda Waymo ile yaptığı danışmanlık çalışması, Google otonom otomobil girişiminin son dönemdeki zorlu sürüş sicili göz önüne alındığında, şüphe uyandırabilir.
İnsan-yapay zeka ve insan-robot etkileşimi algoritmalarına odaklanan bir laboratuvarın başkanlığını yaptığı DeepMind ve UC Berkeley arasında zaman ayırma kararı da aynı şekilde olabilir. Yapay Zeka güvenliği gibi ciddi sorunların ve Yapay Zekanın “terörizme yardım etme” ve “toplumu istikrarsızlaştırma” konusunda önlenmesi de dahil olmak üzere Yapay Zeka Güvenliği ve Hizalama kuruluşunun incelemeyi planladığı uzun vadeli risklerin bir yöneticinin tam zamanlı dikkatini gerektirdiği varsayılabilir.
Ancak Dragan, UC Berkeley laboratuvarının ve DeepMind’ın araştırmalarının birbiriyle ilişkili ve tamamlayıcı olduğu konusunda ısrar ediyor.
Dragan’ın işinin biçilmiş kaftan olduğunu söylemek yetersiz kalır.
GenAI araçlarına yönelik şüphecilik tüm zamanların en yüksek seviyesinde; özellikle de deepfake ve yanlış bilgilendirme söz konusu olduğunda. YouGov tarafından yapılan bir ankette Amerikalıların %85’i, yanıltıcı video ve ses sahtelerinin yayılmasından çok veya biraz endişe duyduklarını söyledi. Associated Press-NORC Halkla İlişkiler Araştırma Merkezi tarafından yapılan ayrı bir anket, yetişkinlerin yaklaşık %60’ının yapay zeka araçlarının 2024 ABD seçim döngüsü sırasında yanlış ve yanıltıcı bilgi hacmini artıracağını düşündüğünü ortaya çıkardı.
Google ve rakiplerinin GenAI yenilikleriyle cezbetmeyi umduğu büyük balık olan şirketler de teknolojinin eksiklikleri ve bunların sonuçları konusunda temkinli davranıyor.
Intel’in yan kuruluşu Cnvrg.io yakın zamanda GenAI uygulamalarını pilot uygulama veya dağıtma sürecinde olan şirketler arasında bir anket gerçekleştirdi. Ankete katılanların yaklaşık dörtte birinin GenAI uyumluluğu ve gizliliği, güvenilirliği, yüksek uygulama maliyeti ve araçları sonuna kadar kullanmak için gereken teknik becerilerin eksikliği konusunda çekinceleri olduğu ortaya çıktı.
Risk yönetimi yazılımı sağlayıcısı Riskonnect’in yaptığı ayrı bir ankette yöneticilerin yarısından fazlası, çalışanların GenAI uygulamalarından gelen yanlış bilgilere dayanarak kararlar vermesinden endişe duyduklarını söyledi.