İngiltere’deki Bath Üniversitesi ve Almanya’daki Darmstadt Teknik Üniversitesi’nin yeni ortak araştırması, ChatGPT gibi yapay zekâ uygulamaları ve diğer büyük dil modellerinin (LLM’ler) bağımsız olarak öğrenemedikleri veya yeni beceriler edinemediklerini ortaya koyuyor. Böylece, mevcut haliyle yapay zekânın insanlık için varoluşsal bir tehdit oluşturabileceği iddiası da boşa çıkmış oluyor.
Çalışma, bu modellerin karmaşık muhakeme yetenekleri geliştirdiğine dair korkuları ortadan kaldırıyor ve LLM’lerin sofistike dil üretebilmelerine rağmen varoluşsal tehditler oluşturmalarının olası olmadığını vurguluyor. Bununla birlikte yapay zekânın sahte haberler üretmek gibi potansiyel kötüye kullanım alanları hala önemli bir tehdit oluşturmaya devam ediyor.
Doğal dil işleme alanında önde gelen uluslararası konferans olan Association for Computational Linguistics’in (ACL 2024) 62. Yıllık Toplantısı’nın bildirileri kapsamında bugün yayınlanan çalışma, LLM’lerin talimatları takip etme ve dilde yeterlilik konusunda yüzeysel bir yeteneğe sahip olduklarını, ancak açık talimatlar olmadan yeni becerilerde ustalaşma potansiyellerinin olmadığını ortaya koyuyor. Bu da onların doğaları gereği kontrol edilebilir, öngörülebilir ve güvenli kaldıkları anlamına geliyor.
Yeni yetenekler değil bağlam içi öğrenme!
Bath Üniversitesi’nde bilgisayar bilimcisi ve LLM’lerin ‘ortaya çıkan yetenekleri’ üzerine yapılan yeni çalışmanın ortak yazarı Dr. Harish Tayyar Madabushi, “Bu tür bir yapay zekâ gelişiminin insanlık için bir tehdit olduğu yönündeki hakim söylem, bu teknolojilerin yaygın olarak benimsenmesini ve geliştirilmesini engelliyor ve ayrıca dikkatimizi odaklanmamız gereken gerçek sorunlardan uzaklaştırıyor” dedi.
Almanya’daki Darmstadt Teknik Üniversitesi’nden Profesör Iryna Gurevych liderliğindeki ortak araştırma ekibi, LLM’lerin modellerin daha önce hiç karşılaşmadığı görevleri tamamlama yeteneklerini test etmek için deneyler yaptı. Örnek olarak, LLM’ler sosyal durumlarla ilgili soruları, bunu yapmak üzere açıkça eğitilmeden ya da programlanmadan yanıtlayabilmektedir.
Önceki araştırmalar bunun modellerin sosyal durumlar hakkında ‘bilgi sahibi’ olmasının bir ürünü olduğunu öne sürerken, araştırmacılar bunun aslında modellerin LLM’lerin kendilerine sunulan birkaç örneğe dayalı görevleri tamamlama konusundaki iyi bilinen ve ‘bağlam içi öğrenme’ (ICL) olarak bilinen yeteneğini kullanmasının bir sonucu olduğunu gösterdi.
En büyük tehdit yapay zekâ dezenformasyonu
Ekip, binlerce deney aracılığıyla, LLM’lerin talimatları takip etme yeteneği (ICL), hafıza ve dil yeterliliğinin bir kombinasyonunun, LLM’lerin sergilediği hem yetenekleri hem de sınırlamaları açıklayabileceğini gösterdi. Dr. Tayyar Madabushi, araştırmacıların testlerinin LLM’lerde ortaya çıkan karmaşık muhakeme yeteneklerinin olmadığını açıkça göstermesi nedeniyle bu korkunun temelsiz olduğunu şu sözlerle savunuyor.
“Sahte haberlerin yaratılması ve dolandırıcılık riskinin artması gibi yapay zekânın kötüye kullanımına yönelik mevcut potansiyeli ele almak önemli olsa da, algılanan varoluşsal tehditlere dayalı düzenlemeleri yürürlüğe koymak için erken olacaktır. Daha da önemlisi, bunun son kullanıcılar için anlamı, açık bir talimat olmaksızın karmaşık muhakeme gerektiren karmaşık görevleri yorumlamak ve gerçekleştirmek için yapay zekâya güvenmenin büyük olasılıkla bir hata olacağıdır. Bunun yerine, kullanıcıların modellerden ne yapmalarını istediklerini açıkça belirtmeleri ve en basit görevler dışında mümkün olan her yerde örnekler sunmaları büyük olasılıkla fayda sağlayacaktır.”