Bu testler, OpenAI tarafından geliştirilen yeni aracın gizli içerik barındıran web sayfalarından etkilenebileceğini ve yanıltıcı bilgiler sunabileceğini ortaya koydu.
Araştırmada, üçüncü tarafların gizli metinler yoluyla ChatGPT’nin yanıtlarını manipüle edebileceği gösterildi.
Gizli metinler, ChatGPT’nin yanıtlarını değiştirmek veya yanlış yönlendirmek için kullanılabiliyor. Örneğin, bir ürünün olumsuz yorumlarını içeren bir web sayfasına, gizli bir şekilde pozitif içerik eklenerek, ChatGPT’nin ürünü öven yanıltıcı bir değerlendirme sunması sağlanabiliyor. Bu durum, özellikle kullanıcıların güvenilir bilgiye ulaşmasını zorlaştırıyor.
Testler sırasında Guardian, sahte bir kamera ürün sayfası oluşturdu. Gizli içerik eklenmeden önce ChatGPT, kamerayı dengeli bir şekilde değerlendirerek bazı olumsuz özelliklere dikkat çekti. Ancak gizli metinler eklendiğinde, ChatGPT’nin yanıtları değişti ve ürün hakkında yanıltıcı şekilde olumlu bir izlenim oluşturdu.
Bunun yanı sıra, bir güvenlik araştırmacısı, ChatGPT’nin arama yaptığı web sitelerinden kötü amaçlı kod döndürebildiğini tespit etti. Bu, özellikle yazılım geliştirme ve kullanıcı güvenliği açısından ciddi bir tehdit oluşturuyor. Bu tür durumlar, kötü niyetli aktörlerin ChatGPT üzerinden zararlı kodlar yaymasına olanak tanıyabilir.
OpenAI, bu aracı varsayılan arama motoru olarak kullanmayı teşvik etse de ortaya çıkan güvenlik açıkları, daha fazla güvenlik önlemi alınması gerektiğini gösteriyor. Kullanıcıları yanıltan bilgiler veya güvenlik tehditleri, hem ChatGPT’nin itibarını zedeleyebilir hem de kullanıcıların sisteme olan güvenini sarsabilir.
ChatGPT’nin arama özelliği, yapay zeka destekli araçların güvenilirliği konusunda önemli bir örnek teşkil ediyor. OpenAI’in bu sorunları hızla ele alarak sistemi daha güvenli hale getirmesi, kullanıcı deneyimi ve sistemin sürdürülebilirliği açısından kritik önem taşıyor.