apay zekanın öncü şirketi OpenAI, “süper zeki” yapay zekaları doğru bir şekilde yönetmek ve tehlikeleriyle mücadele etmek için verdiği sözleri yerine getirmiyor. Geçtiğimiz yıl Superalignment ekibini kurarak bu hedef doğrultusunda adımlar atan firma, sonrasında beklenen ilerlemeyi sağlayamadı. Fortune tarafından yayınlanan yeni bir rapor, OpenAI’ın hiçbir zaman sözünü tutmadığını ortaya koyuyor.
Çok sayıda kaynağa dayandırılan bilgilere göre OpenAI, Superalignment ekibine bilgi işlem gücünün yüzde 20’sini sağlama taahhüdünü hiçbir zaman yerine getirmedi. Aktarılanlara göre, ekibin elindeki işlem gücü, belirlenen eşiğe dahi yaklaşmadı. Ayrıca, ekibin talepleri defalarca reddedildi.
OpenAI’dan geçtiğimiz günlerde ayrılanlar arasında Superalignment ekibinin liderlerinden Jan Leike de bulunuyordu. Leike, istifasında çalışanların güvenlik nedeniyle ayrıldığını ifade etmişti. Bu durum, şirket içinde güvenlik politikalarının yeterince uygulanmadığı şüphelerini arttırdı.
Superalignment ekibi, gelecekte “süper zeka” olarak adlandırılan yapay zeka sistemlerinin insanlar için oluşturabileceği potansiyel risklere karşı çözümler araştırıyordu. Ancak, gerekli olan kaynakların sağlanamaması, bu amaç doğrultusunda yeterli ilerleme kaydedilmesini engelledi.
OpenAI’ın söz konusu iddialara ilişkin bir açıklama yapmaması, şirketin bu konuda ne kadar ciddi olduğu konusunda soru işaretlerine neden oldu.Ayrıca, OpenAI’dan ayrılan çalışanların, şirketi eleştirmeleri halinde öz sermayelerini geri alabilecekleri yönünde bir kuralı içeren ayrılık sözleşmesini imzalamaya zorlandıkları belirtildi. CEO Sam Altman ise bu durumdan haberi olmadığını ve utanç duyduğunu ifade etti.
OpenAI’ın yapay zeka alanındaki öncülüğü ve söz verdiği güvenlik önlemleri konusundaki bu gelişmeler, şirketin gelecekteki adımları hakkında soru işaretleri yaratıyor.