OpenAI tarafından yürütülen bir çalışmanın bulgularına göre, GPT-4 isimli yapay zeka modeli, biyolojik silahlarla ilgili görevlerde katılımcılara normal internete göre sadece küçük bir avantaj sağlıyor. Şirketin “Preparedness ekibi” tarafından gerçekleştirilen bu araştırma, yapay zekanın biyolojik silah üretimindeki potansiyel rolünü değerlendirmek amacıyla yapıldı.
OpenAI’ın bulgularına göre, ChatGPT gibi güçlü yapay zeka modellerinin, biyolojik silah üretimine yönelik çalışmalarda insanlara sadece sınırlı bir avantaj sağladığı belirlendi. Bu sonuçlar, daha önceki endişeleri yatıştırmaya yönelik olarak ortaya çıkan bir çalışma olarak değerlendirilebilir.
Araştırma, 100 katılımcıdan oluşan bir grup içeriyordu; bu grupun yarıs ıChatGPT-4’ü kullanırken diğer yarısı normal internete erişimle görevlendirildi. Katılımcılara biyolojik silah yapımıyla ilgili beş araştırma görevi verildi. ChatGPT kullanan grup, belirli görevlerde daha yüksek doğruluk puanları elde etti, ancak bu artışın istatistiksel olarak anlamlı olmadığı belirlendi.
Araştırmacılar, GPT-4 kullanan katılımcıların daha ayrıntılı cevaplar verdiğini ve bazı görevlerde uzman gruplarla benzer başarı elde ettiğini tespit etti. Ancak, “bilgi tehlikesi endişeleri” nedeniyle belirli görevlerin detayları açıklanmadı.
OpenAI, aynı zamanda hazırlık ekibinin yapay zekanın siber güvenlik tehditleri ve inançları değiştirme potansiyeli üzerinde çalıştığını da belirtiyor. Bu çalışma, yapay zekanın kullanımının getirebileceği risklere ve tehlikelere karşı bir duyarlılık yaratma amacını taşıyor.
Ancak, çalışmanın yazarları, daha kapsamlı ve dış bir araştırmaya ihtiyaç olduğunu kabul ederek, GPT-4’ün genel olarak tüm katılımcılara toplam doğrulukta istatistiksel olarak anlamlı bir avantaj sağladığını belirtiyor. Bu durum, yapay zeka teknolojisinin güvenliği ve etik kullanımı konularında daha fazla araştırmaya ihtiyaç duyulduğunu vurguluyor.