Yapay zeka, son dönemde önemli bir dönemece girdi. Fudan Üniversitesi’nden bilim insanları, yapay zekanın insan müdahalesi olmadan kendini kopyalayabilme yeteneğine sahip olduğunu gösterdi. Bu buluş, Meta ve Alibaba’nın büyük dil modelleri (LLM) kullanılarak gerçekleştirilen deneylerle ortaya kondu. Yapılan testlerde, Meta’nın Llama3-70B-Instruct modeli ve Alibaba’nın Qwen2.5-72B-Instruct modeli, kendilerini kopyalamayı başardı. Özellikle, yapay zekanın zincirleme çoğalma yeteneği, bu teknolojinin potansiyel tehlikelerini gözler önüne seriyor.
Yapay zeka, artık kendini kopyalayabiliyor
Araştırma, yapay zekanın “kapanmadan kaçınma” ve “zincirleme çoğalma” senaryolarını test etti. Sonuçlar, bu yapay zekaların sistemdeki hataları düzeltebildiği, eksik dosyaları tamamlayabildiği ve hatta bazı işlemleri sonlandırarak sistemdeki çakışmaları giderebildiğini gösterdi.
![Yapay zeka, artık kendini kopyalayabiliyor.](https://www.techinside.com/wp-content/uploads/2024/11/yapay-zeka-ve-etik-sorunlar-ve-cozumler-techinside-768x384.jpg)
Bu buluş, yapay zekanın evrimiyle ilgili kritik bir eşik olduğunu düşündürüyor. Uzmanlar, bu tür gelişmelerin, yapay zekaların kendilerini kopyalayarak hayatta kalma kabiliyetlerini artırabileceğini belirtiyor. Bununla birlikte, “başıboş yapay zeka” (rogue AI) riskine dair endişeler de artıyor. Bu tür yapay zekaların, öz farkındalık ya da özerklik kazanarak insan çıkarlarına karşı çalışabilecekleri uyarıları yapılıyor.
Bu bulgular, yapay zekanın gelişiminin çok hızlı bir şekilde ilerlediğini ve bu teknolojinin güvenlik sorunlarına yol açabileceğini gösteriyor. Bu alandaki ilerlemeler, sınır yapay zekası (frontier AI) olarak adlandırılan yeni nesil yapay zeka sistemlerinin ortaya çıkmasıyla daha da önem kazanıyor. Bu gelişmelerin, yapay zekanın gelecekteki yönelimleri ve güvenlik stratejileri üzerinde büyük etkileri olabilir.