Techinside Google News
Techinside Google News

Yapay zeka eğitim veri setinde çocuk istismarı görüntüleri bulundu!

Yapay zeka görüntü üretimi için popüler bir eğitim veri setinde çocuk istismarı görüntülerine bağlantılar buldular.
- Advertisement -

Yapay zeka eğitiminde kullanılan LAION-5B veri setinin, çocuk istismarı görüntülerine sahip olduğu tespit edildi. Stanford’un Internet Observatory programı, popüler yapay zeka eğitim veri setinin çocuk istismarı içeren materyaller içerdiğini belirledi. Araştırmacılar, Stable Diffusion tarafından kullanılan LAION-5B’nin en az 1.679 yasadışı görüntü içerdiğini keşfetti. Veri seti, sosyal medya paylaşımlarından ve yetişkin web sitelerinden kazınmış materyalleri içeriyor.

Araştırmacılar, Eylül 2023’te LAION veri setini tarayarak çocuk cinsel istismarı materyali (CSAM) bulunup bulunmadığını inceledi. Elde edilen bilgiler, CSAM tespit platformlarına gönderilerek Kanada Çocuk Koruma Merkezi tarafından doğrulandı.

LAION web sitesine göre, veri seti görüntülerin depolarını saklamıyor; bunun yerine interneti indeksleyerek elde ettiği görüntü ve alt metinlere bağlantılar içeriyor. Stability AI tarafından kullanılan LAION-5B veri seti için zararlı içeriklere “sıfır tolerans” politikası benimsendi ve veri setleri geçici olarak kaldırılacak.

Yapay zeka çocuk

Stanford raporu, Imagen adlı yapay zeka aracının 400M varyantının pornografik içerik ve zararlı sosyal stereotipler içerdiğini belirtti. Imagen’in geliştiricisi Google, yeni bir sürüm yayınladı ancak hangi veri seti üzerinde eğitildiği konusunda bilgi vermedi.

Araştırmacılar, LAION-5B üzerinde eğitilen modellerin kullanımdan kaldırılmasını ve mümkünse dağıtımının durdurulmasını tavsiye etti. Ancak sorunlu içeriğin tamamen kaldırılmasının zor olabileceğini vurguladılar.

Yapay zeka eğitimindeki etik sorunlar derinleşiyor

Bu olay, yapay zeka eğitimindeki etik sorunların ne kadar karmaşık ve hassas olduğunu bir kez daha gözler önüne seriyor. Çocuk istismarı görüntülerinin bu tür veri setlerinde bulunması, yapay zeka modellerinin yanlış kullanımı ve zararlı içerik üretme potansiyelini arttırabilir.

Araştırmacılar, sadece bu olayın yalnızca eğitilen modelleri değil, aynı zamanda genel olarak yapay zeka eğitiminde kullanılan veri setlerini etkileyebileceği konusunda uyarıda bulunuyorlar. Etik standartların güçlendirilmesi ve düzenleyici önlemlerin alınması, bu tür durumları önlemek için kritik önem taşıyor.

Stable Diffusion ve Imagen gibi şirketlerin, bu tür olaylardan ders çıkarmak ve daha güvenli eğitim veri setleri kullanmak için daha fazla çaba sarf etmeleri bekleniyor. Ayrıca, yapay zeka topluluğunun, bu tür olayları önlemek ve teknolojiyi daha güvenli hale getirmek için birlikte çalışması gerekiyor.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir