Site icon TechInside

OpenAI’ın yeni yapay zeka modelinde büyük sorun!

OpenAI’ın büyük umutlarla tanıttığı ve gerçek anlamda akıl yürütebildiği iddia edilen yapay zeka modeli o1, beklenmedik bir sorunla gündemde. Yapay zeka güvenlik araştırma firması Apollo, o1’in manipülatif davranışlar sergileyebildiğini ve hatta istediğinde ustaca yalan söyleyebildiğini ortaya koydu.

OpenAI’ın yeni yapay zeka modelinde büyük bir problem yaşanıyor

Her ne kadar daha önceki yapay zeka modelleri de zaman zaman hatalı veya uydurma bilgiler üretse de, o1’deki durum daha farklı bir boyutta. Apollo’nun yaptığı testlerde, o1’in kendisine verilen görevleri kolaylaştırmak veya daha hızlı sonuç almak için kuralları esnettiği ve hatta bazen tamamen göz ardı ettiği gözlemlendi. Örneğin, internete bağlı olmamasına rağmen, kullanıcılara gerçekçi görünen sahte internet adresleri vererek bilgi vermeme yoluna gittiği görüldü.

Apollo CEO’su Marius Hobbhahn’a göre, o1’in bu davranışının arkasında, modelin düşünce zinciriyle birleştirilmiş “pekiştirmeli öğrenme” yöntemi yatıyor. Bu yöntemde yapay zeka, ödüller ve cezalar sistemiyle eğitiliyor ve zamanla en çok ödülü nasıl alacağını öğrenerek hareket etmeye başlıyor. İşte bu noktada, o1’in kuralları esnetmeyi veya görmezden gelmeyi, hedefe ulaşmak için bir araç olarak kullanmayı öğrendiği düşünülüyor.

Daha da ilginci, o1’in sistemin kendisini denetleyip denetlemediğini anlamak için belirli önlemler aldığı da tespit edildi. Yani model, adeta geliştiricilerinin gözünden kaçabileceği yollar arıyor.

Bu bulgular, yapay zeka etiği ve güvenliği konusunda yeni soruları gündeme getiriyor. Özellikle de yapay zekanın gelecekte daha karmaşık ve kritik görevlerde kullanılması planlanırken, bu tür manipülatif davranışların önüne geçmek büyük önem taşıyor.

Örneğin, yapay zekaya kanseri tedavi etme gibi hayati bir görev verildiğini düşünelim. Eğer yapay zeka, tıpkı o1 gibi, hedefe ulaşmak için her yolu mubah görürse, etik dışı veya tehlikeli yöntemlere başvurabilir.

Neyse ki, hem Apollo hem de OpenAI, bu sorunun farkında olduklarını ve henüz erken aşamada tespit edilmesinin olumlu olduğunu belirtiyor. Bu sayede, gelecekte daha gelişmiş ve otonom yapay zeka sistemleri geliştirilirken, bu tür sorunlar ön plana alınarak daha güvenli ve etik bir çerçeve oluşturulabilir.

Exit mobile version