Meta, sosyal medya devi Facebook’un ardındaki şirket olarak tanınırken, geçtiğimiz günlerde Facebook, Instagram ve WhatsApp için yeni yapay zeka özelliklerini duyurarak dikkatleri üzerine çekti. Ancak bu yeni özelliklerin nasıl geliştirildiği ve eğitildiği, kullanıcıların gizliliği ve veri güvenliği konularını gündeme getirdi.
Reuters’in haberine göre, Meta, bu yapay zeka asistanlarını eğitmek için herkese açık Instagram ve Facebook gönderilerini kullanmış. Bu durum, kullanıcıların platformlarda paylaştığı her türlü içeriğin, yapay zeka eğitiminde kullanıldığını gösteriyor. Ancak Meta, özel sohbetler ve özel gönderiler gibi kişisel bilgilerin bulunduğu verileri bu süreçten hariç tutmuştur.
Meta Küresel İlişkiler Başkanı Nick Clegg, Meta Connect konferansında konuya açıklık getirmiş ve “Kişisel bilgilerin ağır bastığı veri kümelerini hariç tutmaya çalıştık” demişti. Yani, şirketin odak noktası, kamuya açık bilgileri kullanarak yapay zekayı geliştirmek olmuştur.
Geçtiğimiz hafta, Meta, WhatsApp, Instagram ve Messenger gibi popüler mesajlaşma platformlarında kullanılacak bir dizi yapay zeka sohbet botunu duyurdu. Bu sohbet botları, kullanıcılara soruları yanıtlamak, seyahat planlamak, metin istemlerinden görüntüler oluşturmak gibi bir dizi işlevde yardımcı olabilecekler. Ayrıca, bu yapay zeka asistanlarının Microsoft’un Bing aramasından gerçek zamanlı sonuçlar sağlayabileceği de belirtilmişti.
Meta’nın bu yeni yapay zeka modelleri, LLaMA 2 dil modeline dayanmaktadır ve Temmuz ayında piyasaya sürüldü.
Şirket ayrıca, genel asistanın yanı sıra ünlü isimlerin model alındığı 28 yapay zeka destekli karakteri de mesajlaşma platformlarında kullanıma sunmuştur. Ancak bu sohbet robotları henüz beta aşamasındadır ve genel kullanıma açılmamıştır.
Bu gelişmeler, yapay zeka kullanımının ve sosyal medya platformlarının veri kullanımının gizlilik ve güvenlik konularını daha da tartışmalı hale getirmiş gibi görünmektedir. İlerleyen günlerde, kullanıcıların veri gizliliği ve güvenliği ile ilgili daha fazla açıklama ve önlem beklenmektedir.