Her programda olduğu gibi, yapay zeka sohbet uygulamaları da dikkatli kullanılmalı ve bunların bir sahibinin olduğu unutulmamalı
Yapay Zeka Sohbet Robotları teknoloji standartlarına göre nispeten eski, ancak OpenAI’nin ChatGPT’si ve Google’ın Bard’ı tarafından yönetilen en yeni ürün, her zaman olumlu nedenlerle olmasa da, atalarından çok daha yetenekli. YZ gelişimindeki son patlama, yanlış bilgilendirme, dezenformasyon, intihal ve makine tarafından üretilen kötü amaçlı yazılımlarla ilgili endişeler yarattı. Üretken YZ ortalama bir internet kullanıcısının mahremiyeti için ne gibi sorunlar yaratabilir? Uzmanlara göre bu sorunun cevabı, büyük ölçüde bu botların nasıl eğitildiği ve onlarla ne kadar etkileşime girmeyi planladığımızla ilgili.
İnsan benzeri etkileşimleri taklit etmek için yapay zeka sohbet robotları, önemli bir kısmı Common Crawl gibi havuzlardan elde edilen büyük miktarda veri üzerinde eğitiliyor. Adından da anlaşılacağı gibi, Common Crawl sadece açık web’i tarayarak petabaytlarca veri biriktirdi. Stanford’un bilgisayar bilimleri bölümünde doktora öğrencisi ve Microsoft Research’te eski yapay zeka asistanı olan Megha Srivastava, “Bu modeller internette kamuya açık büyük veri setleri üzerinde eğitim alıyor” dedi. Srivastava’ya göre ChatGPT ve Bard, Common Crawl verilerinin “filtrelenmiş” bir bölümünü kullansalar da, modelin büyüklüğü “herhangi birinin verilere bakmasını ve onları sterilize etmesini imkansız hale getiriyor”.
Sohbet robotları verilerinizi yeniden üretebilir
Ya kendi dikkatsizliğiniz ya da üçüncü bir tarafın kötü güvenlik uygulamaları nedeniyle kişisel verileriniz şu anda internetin uzak bir köşesinde olabilir. Ortalama bir kullanıcı için erişilmesi zor olsa da, bu bilgilerin bir eğitim setine kazınmış olması ve ileride bu sohbet botu tarafından yeniden üretilmesi mümkündür. Ve bir botun birinin gerçek iletişim bilgilerini ortaya dökmesi hiçbir şekilde teorik bir endişe değildir. Bloomberg köşe yazarı Dave Lee Twitter’da, birisinin ChatGPT’den şifreli mesajlaşma platformu Signal’de sohbet etmesini istediğinde, tam telefon numarasını verdiğini paylaştı. Bu tür bir etkileşim muhtemelen uç bir durumdur, ancak bu öğrenme modellerinin erişebildiği bilgiler yine de dikkate alınmaya değerdir. Güvenlik kuruluşu SANS Enstitüsü’nden David Hoelzer, “OpenAI’nin modellerini eğitmek için sağlık verileri gibi belirli bilgileri toplamak ve bunları bireylere atfetmek istemesi pek olası değil” diyor. “Ama yanlışlıkla orada olabilir mi? Kesinlikle.”
ChatGPT’nin arkasındaki şirket olan Open AI, veri gizliliğini korumak için hangi önlemleri aldığını veya eğitim setlerine kazınabilecek kişisel olarak tanımlanabilir bilgileri nasıl ele aldığını sorduğumuzda yanıt vermedi. Biz de bir sonraki en iyi şeyi yaptık ve ChatGPT’nin kendisine sorduk. Bize “kullanıcıların gizliliğini ve kişisel bilgilerini koruyan etik ve yasal standartlara uymak üzere programlandığını” ve “bana verilmediği sürece kişisel bilgilere erişiminin olmadığını” söyledi. Google ise konuşmalar sırasında kişisel olarak tanımlanabilir bilgilerin paylaşılmasını önlemek için Bard’a benzer engeller programladığını söylüyor.
Bu arada Google’ın Bard’ı bağımsız bir gizlilik politikasına sahip değil, bunun yerine diğer Google ürünleri tarafından paylaşılan (ve son derece geniş olan) genel gizlilik belgesini kullanıyor. Bard ile yapılan konuşmaların kullanıcının Google hesabına kaydedilmesi gerekmediğini ve kullanıcıların konuşmaları Google üzerinden silebileceğini söylüyor. Virginia Tech’te profesör ve seçkin beşeri bilimler uzmanı olan Rishi Jaitly, “Kullanıcı güvenini oluşturmak ve sürdürmek için, ön uçta gizlilik politikaları ve veri koruma prosedürleri konusunda çok şeffaf olmaları gerekecek” diyor.
Hizmetin SSS sayfasına göre, “konuşmaları temizle” eylemine sahip olmasına rağmen, buna basmak verilerinizi gerçekten silmiyor ve OpenAI belirli istemleri silemiyor. Şirket, kullanıcıları hassas herhangi bir şeyi paylaşmaktan caydırırken, görünüşe göre ChatGPT’ye sağlanan kişisel olarak tanımlayıcı bilgileri kaldırmanın tek yolu, şirketin tüm ilişkili verileri kalıcı olarak kaldıracağını söylediği hesabınızı silmek.
Hoelzer, ChatGPT’nin öğrenmek için bireysel konuşmaları almasından endişe duymadığını söylüyor. Ancak bu konuşma verileri bir yerlerde saklanıyor ve bu nedenle güvenliği makul bir endişe haline geliyor. Bu arada, ChatGPT Mart ayında bir programlama hatası nedeniyle kullanıcıların sohbet geçmişleriyle ilgili bilgiler açığa çıktığı için kısa bir süreliğine çevrimdışı olmuştu. Bu tür yapay zekâlardan elde edilen sohbet kayıtlarının kötü niyetli aktörler için değerli hedefler haline gelip gelmeyeceği, geniş çaplı dağıtımlarının bu kadar erken aşamalarında belli değil.