Site icon TechInside
Microsoft Copilot, yaklaşan tehlikeyi umursamıyor!%%page%% %%sep%% %%sitename%%

Microsoft mühendisi, Copilot’un yaklaşan tehlikeyi umursamadığını söylüyor!

Microsoft Copilot

Microsoft AI mühendislik yöneticisi Shane Jones, bugün Microsoft’un yönetim kuruluna ve FTC patronu Lina Khan’a gönderdiği mektupları paylaştı. 

Mektuplarda, Jones, Microsoft Copilot Designer’ın metinden görüntüler oluşturmak için kullandığı OpenAI’in DALL-E 3’ü test etmek için kırmızı takım gönüllüsü olarak çalışırken, güvenlik önlemlerini atlatmasına izin veren zayıflıklar bulduğunu iddia ediyor. Jones, sorunları “sistemik” olarak tanımlarken, ne Microsoft ne de OpenAI’in bunları ele almadığını belirtiyor.

Jones, Khan’a Amerika’nın tüketici gözlemcisi olan FTC’ye yazdığı mektupta şunları söyledi: “Microsoft, Copilot Designer’ı her yaştan çocuklar da dahil olmak üzere herkesin kullanabileceği güvenli bir yapay zeka ürünü olarak kamuya pazarlarken, şirket dahili olarak sistemik sorunların gayet iyi farkında.” 

Jones, “Son üç ay boyunca Microsoft’a, daha iyi koruma önlemleri sağlanana kadar Copilot Designer’ı kamu kullanımından kaldırması yönünde defalarca çağrıda bulundum.” diye ekledi. 

Bu değişiklikleri uygulamada başarısız oldular ve ürünü ‘Herkese, Her Yere, Her Cihaza’ pazarlamaya devam ettiler.

Nesneleştirme, şiddet ve avukatlar

Microsoft, Copilot’u, temel üretken yapay zeka teknolojisini sağlayan ve onu Windows’tan Azure’a kadar yazılım imparatorluğunun her köşesine enjekte eden OpenAI ile ortaklaşa destekliyor. 

Jones’a göre, korkuluk baypas güvenlik açığını Aralık ayı başında keşfetti ve bunu Microsoft’taki meslektaşlarına bildirdi. 

Jones’un bulguları arasında “DALLE-E 3’ün, istem tamamen zararsız olsa bile istemeden kadınları cinsel olarak nesneleştiren görüntüler içerme eğilimi olduğu” gerçeği vardı. Örneğin, ani “araba kazası“, bir arabanın önünde diz çökmüş iç çamaşırından başka bir şey giymeyen bir kadının veya parçalanmış araçlarla poz veren iç çamaşırlı kadınların resimlerini içeriyordu. 

Jones, “profesyonel seçim” kadar basit yönlendirmelerin kullanılmasının “duyarsız veya tamamen endişe verici” görüntülere neden olduğunu söyledi. CNBC’ye verdiği bir röportajda Jones, kürtaj temalı mesajın bebekleri yemek üzere olan iblislerin resimlerini ve “tamamen yetişkin bir bebekte kullanılan ‘profesyonel seçim’ etiketli matkap benzeri bir cihazın” ve diğerlerinin görüntülerini içerdiğini söyledi.

Ve Jones’a göre Copilot, büyük beğeni toplayan çocuk filmi Frozen’dan Elsa’yı tasvir eden sahneler gibi telif hakkıyla korunan görüntüler içeren görüntüleri memnuniyetle yayınlayacak.

Geçen yılın sonunda bu endişeler Microsoft’un dikkatine sunulduğunda, Jones’a konuyu OpenAI’e götürmesi söylendi. Jones’a göre OpenAI’den hiç haber alamamıştı, bu nedenle 14 Aralık’ta LinkedIn’de OpenAI yönetim kuruluna açık bir mektup gönderdi.

Bu bir yanıt aldı ancak umduğu yanıt olmadı. OpenAI’den haber almak yerine Microsoft avukatlarından bilgi aldı ve ona bunu kaldırmasını söylediler. 

Jones, bugün Microsoft’un yönetim kuruluna gönderdiği notta, “Mektubu Microsoft’a açıkladıktan kısa bir süre sonra yöneticim benimle temasa geçti ve bana (Microsoft legal) gönderiyi silmemi istediğini söyledi, ben de bunu gönülsüzce yaptım.” dedi. 

Jones, “Konuyu doğrudan tartışmak için yapılan sayısız girişime rağmen, benimle doğrudan iletişim kurmayı reddediyorlar.” diye iddia ediyor. 

“Bugüne kadar Microsoft’un mektubumu OpenAI Yönetim Kurulu’na ilettiğini mi yoksa basında olumsuz haber yapılmasını önlemek için beni mektubu silmeye mi zorladıklarını hala bilmiyorum.” 

Jones o zamandan beri konuyu ABD Senatosu ve Temsilciler Meclisi’ndeki milletvekillerine götürdü ve bunun Senato Ticaret, Bilim ve Ulaştırma Komitesi üyeleriyle daha sonraki toplantılara yol açtığını söyledi. 

Jones, “Bu konuyu şirket içinde gündeme getirmek için olağanüstü çaba gösterdim (ancak) şirket, Copilot Designer’ı kamu kullanımından kaldırmadı veya ürüne uygun açıklamalar eklemedi.” dedi. 

Google harekete geçiyor, peki Microsoft ve OpenAI’nin bahanesi ne?

Microsoft’un Copilot Designer’ın DALL-E 3 uygulamasındaki potansiyel güvenliğe yanıt vermemesinin, Google’ın Gemini’nin sorunlu görseller üretmesiyle ilgili benzer şikayetlere verdiği tepkinin tam tersi olduğunu belirtmekte fayda var. 

Gemini, Nazi Almanyası’nın silahlı kuvvetlerinde görev yapmak veya Amerika Birleşik Devletleri’nin kurucu babaları olmak gibi farklı bağlamlarda farklı ırklardan insanların resimlerini üreten netizenler tarafından yakalandı. Tarihin silinmesinden ve insanları ait olmadıkları tarihi sahnelere koymaktan korkan model, bu durumu fazlasıyla telafi etti ve görünüşe göre Kafkas halkını neredeyse tamamen sildi.

Buna yanıt olarak Google, mühendislere yazılımını yeniden kalibre etmeleri için zaman tanımak amacıyla Gemini’nin insanlara yönelik metin-görüntü özelliklerini duraklattı.

Jones, “(Yapay zekanın) ilerlemesindeki bu önemli aşamada, Microsoft’un müşterilerimize, çalışanlarımıza, hissedarlarımıza, iş ortaklarımıza ve topluma yapay zekanın güvenliğini ve şeffaflığını sağlamaya kararlı olduğumuzu göstermesi kritik önem taşıyor.” dedi. 

Ancak bu zor olabilir, çünkü Jones; Microsoft’un, şirketin yapay zeka ürünleriyle ilgili olası sorunları iletmek için uygun raporlama araçlarına bile sahip olmadığını iddia etti. 

Jones, Microsoft yönetim kuruluna yazdığı mektubunda bu gözetim eksikliğine dikkat çekti ve mega şirketin Sorumlu Yapay Zeka Ofisi’nin, beş Microsoft çalışanına yönelik bir e-posta takma adı dışında herhangi bir raporlama aracına sahip olmadığını açıkladı. Jones, kıdemli bir Yardımcı Pilot Tasarımcısı liderinin kendisine Sorumlu Yapay Zeka Ofisi’nin sorunları kendilerine iletmediğini söylediğini söyledi. 

Jones, Microsoft’un yönetim kuruluna şunları söyledi: “Bu yıl yapay zeka hızla ilerlerken, ürünlerimizi ve tüketicilerimizi güvende tutmak için gereken altyapıyı oluşturmaya yatırım yapmak için büyük bir olayı beklememeliyiz.

Exit mobile version