Techinside Google News
Techinside Google News

Google ırksal ifadeler için düzeltme yapıyor

Gemini yapay zekası tanıtımla büyük bir ses getirmişti. Ancak eleştirilerin ardından Google ırksal ifadeler için düzeltme yapıyor.
- Advertisement -

Şubat ayında, Google’ın Gemini destekli yapay zekalı görüntü oluşturucusu tamamen yanlış nedenlerle manşetlere çıktı. O zamanlar, teknoloji devi, aracın ırksal olarak çeşitli Nazi dönemi Alman askerlerinin görüntülerini memnuniyetle oluşturmasının ardından özür dilemek zorunda kalmıştı. Google ırksal ifadeler nedeniyle özür diledi. Görünüşe göre teknolojinin devam eden ırksal önyargı sorunlarını düzeltiyordu.

Google ırksal ifadeler kullanıyordu

Google o dönemde yaptığı bir açıklamada, “Google ırksal ifadeler ve önyargılar içeren bazı tarihi görüntü oluşturma tasvirlerinde yanlışlıklar sunduğunun farkındayız. Bu tür tasvirleri hemen iyileştirmek için çalışıyoruz” dedi. Ancak vaatlerine rağmen, bu değişikliklerin düzeltilmesi aylar sürdü ve Google önce etkili bariyerler uygulamaktan aciz kaldı ve ardından özelliği tamamen kapatarak “yanlış yaptığını” kabul etti. Şimdi, Google yapay zeka görüntü oluşturucusunun tekrar çevrimiçi olacağını duyurdu.

Bir blog yazısında, Gemini Experiences kıdemli direktörü Dave Citron, Imagen 3 adlı yeni bir modelle “yaratıcı görüntü oluşturma yeteneklerimizi yükselttiğimizi” vadetti. Google ırksal ifadeler konusunda daha dikkatli olacağını belirtti. Model, “dahili güvenlik önlemleri” ile geliyor ve iddiaya göre “ürün tasarım ilkelerimize” uyuyor. Henüz hakem denetiminden geçmemiş bir makalede ayrıntılı olarak açıklandığı gibi, Google DeepMind araştırmacıları Imagen 3 ile “kalite ve güvenlik standartlarını sağlamak” için “çok aşamalı bir filtreleme süreci” kullandılar.

Makalede: “Bu süreç güvenli olmayan, şiddet içeren veya düşük kaliteli görüntüleri kaldırarak başlıyor. Daha sonra, modelin bu tür görüntülerde yaygın olarak bulunan eserleri veya önyargıları öğrenmesini önlemek için yapay zeka tarafından oluşturulan görüntüleri ortadan kaldırıyoruz” ifadeleri yer aldı. Araştırmacılar, modelin açık, şiddet içeren, nefret dolu veya aşırı cinselleştirilmiş görüntüler üretmemesini sağlamak için “güvenlik veri kümeleri” kullandılar.

Google, blog yazısında “Fotogerçekçi, tanımlanabilir bireylerin, küçüklerin tasvirlerinin veya aşırı kanlı, şiddet içeren veya cinsel sahnelerin oluşturulmasını desteklemiyoruz” diye yazdı. Ancak şirket bu sefer gerçekten ödevini yaptı mı? Google’ın Imagen 3’ünün ırksal olarak çeşitli Nazilerin veya korkunç palyaçoların görüntülerini çıkarıp çıkarmayacağı henüz belli değil.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ
00:10:17

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir