Techinside Google News
Techinside Google News

AB, Yapay Zeka Yasası’nı kabul etti! Sırada ne var?

AB milletvekilleri, bloğun dönüm noktası niteliğindeki yapay zeka düzenlemesini resmi olarak onayladı. Teknolojinin belirli kullanımlarının yasaklanmasının ve sağlayıcılardan şeffaflık talep edilmesinin önü açıldı.
- Advertisement -

Çarşamba günü yapılan çoğunluk oylamasıyla, 523 Avrupa Parlamentosu üyesi Yapay Zeka Yasası’nı (AI Yasası) resmi olarak kabul etmeyi seçti ve şimdi bunun AB genelinde uygulanması için çalışacak.

Yapay Zeka Yasası, ilk kez önerildiği 2021’den bu yana hararetle tartışılıyor ve en katı düzenlemelerinden bazıları (kitlesel kamu gözetimi için biyometrik sistemlerin tamamen yasaklanması gibi) son dakika tavizleriyle yumuşatılıyor. Çarşamba günkü duyuru, yasanın neredeyse son engelini aştığı anlamına gelse de, bazı kuralların yürürlüğe girmesi hâlâ yıllar alacak.

Metnin hukuki dili henüz son onayı bekliyor, ya ayrı bir duyuru ile ya da 10/11 Nisan’da yapılacak bir plenary oturumu oylamasıyla, yapay zeka yasası resmi olarak yayımlandıktan sonra 20 gün içinde yürürlüğe girecek. Düzenlemeler ise daha sonra aşamalı olarak yürürlüğe girecek; ülkelerin yasaklanmış yapay zeka sistemlerini yasaklamak için altı ayı, sohbet botları gibi “genel amaçlı yapay zeka sistemleri” karşısında kuralları uygulamak için 12 ayı, yasa tarafından “yüksek riskli” olarak belirlenen yapay zeka sistemleri için ise en fazla 36 ayı olacak.

Yasaklanmış sistemler, sosyal puanlamayı, iş vb ortamlarda duyguyu tanımayı veya davranışı etkilemeyi ve kullanıcı hassasiyetlerini sömürmeyi amaçlayan sistemler gibi şeyleri içeriyor. “Yüksek riskli” yapay zeka sistemlerine örnek olarak kritik altyapıya, eğitim ve mesleki eğitime, belirli yasama sistemlerine ve seçimler gibi demokratik süreçlere etki edebilecek olanlara gösterilebilir.

Paul Barrett, “Çok kısa vadede, AB Yapay Zeka Yasası üzerindeki uzlaşmanın ABD merkezli yerleşik yapay zeka tasarımcıları üzerinde doğrudan pek bir etkisi olmayacak, çünkü yasanın şartlarına göre muhtemelen 2025’e kadar yürürlüğe girmeyecek.” dedi. Barrett, OpenAI, Microsoft, Google ve Meta gibi büyük AI oyuncularının şimdilik; özellikle ABD’deki mevzuat belirsizliğiyle mücadele ederken, muhtemelen üstünlük için savaşmaya devam edeceklerini söylüyor.

Yapay Zeka Yasası, OpenAI‘in GPT-4 büyük dil modeli gibi genel amaçlı yapay zeka (GPAI) araçlarındaki patlamadan önce başladı ve bunların düzenlenmesi, son dakika tartışmalarında oldukça karmaşık bir anlaşmazlık noktası haline geldi. Yasa, kurallarını bir yapay zeka sisteminin toplum üzerindeki risk düzeyine göre bölüyor veya AB’nin bir açıklamada belirttiği gibi, “Risk ne kadar yüksekse, kurallar da o kadar katıdır.“.

Ancak bazı üye ülkeler, bu katılığın AB’yi yapay zeka için çekici olmayan bir pazar haline getirebileceğinden endişe duymaya başladı. Fransa, Almanya ve İtalya, müzakereler sırasında GPAI üzerindeki kısıtlamaların hafifletilmesi için lobi faaliyeti yürüttü. “Yüksek riskli” olarak değerlendirilebilecek sistemlerin sınırlandırılması da dahil olmak üzere uzlaşmalar kazandılar ve bu sistemler daha sonra en katı kurallara tabi olacak. Tüm GPAI’leri yüksek riskli olarak sınıflandırmak yerine, iki aşamalı bir sistem ve uzaktan biyometrik tanımlama gibi AI’ın tamamen yasaklanmış kullanımları için kolluk kuvvetleri istisnaları olacaktır. 

Bu hala tüm eleştirmenleri tatmin etmedi. Fransa Cumhurbaşkanı Emmanuel Macron , AI Yasasının yeniliği engelleyen zorlu bir düzenleyici ortam yarattığını söyleyerek kurallara saldırdı. Barrett, bazı yeni Avrupalı ​​yapay zeka şirketlerinin mevcut kurallarla sermaye artırmayı zor bulabileceğini, bunun da Amerikan şirketlerine avantaj sağladığını söyledi. Avrupa dışındaki şirketler, kuralları ihlal ettikleri için para cezasına çarptırılmamak için bölgede mağaza açmaktan kaçınmayı veya platformlara erişimi engellemeyi bile seçebilirler; bu, düzenlemelere uygun olarak Avrupa’nın yapay zeka dışı teknoloji endüstrisinde de karşı karşıya kaldığı potansiyel bir risktir. Dijital Piyasalar Yasası ve Dijital Hizmetler Yasası gibi.  

Dijital Ticaret ve Veri Yönetişimi Merkezi direktörü ve George Washington Üniversitesi’nde uluslararası ilişkiler alanında araştırma profesörü olan Susan Ariel Aaronson, AB’nin bu anlaşmayı geçici olarak onayladığında, “Kurallara göre şirketlerin bir şeffaflık özeti veya veri beslenme etiketleri sunması gerekebilir.” dedi. “Fakat bu aslında şirketlerin veri etrafındaki davranışlarını değiştirmeyecek.”

Aaronson, geliştiricilerin mevcut telif hakkı yasalarına (Yapay Zeka etrafında birçok gri alan bırakan) uyması gerektiğini belirtmenin ötesinde, Yapay Zeka Yasası’nın şirketlerin model eğitim verilerinin bir parçası olan telif hakkıyla korunan materyali nasıl ele alması gerektiğini hala açıklığa kavuşturmadığını belirtiyor. Bu nedenle, AI model geliştiricilerinin telif hakkıyla korunan verileri kullanmaktan kaçınması için herhangi bir teşvik sunmamakta.

Yapay Zeka Yasası aynı zamanda potansiyel olarak ağır cezalarını açık kaynak geliştiricilerine, araştırmacılara ve değer zincirinin daha aşağılarında çalışan küçük şirketlere de uygulamayacak; bu, bu alandaki açık kaynak geliştiricileri tarafından övgüyle karşılanan bir karar. GitHub baş hukuk sorumlusu Shelley McKinley, bunun “açık inovasyon ve toplumun en acil sorunlarından bazılarının çözülmesine yardımcı olmak için çalışan geliştiriciler açısından olumlu bir gelişme” olduğunu söyledi.

Gözlemciler, bunun en somut etkisinin diğer siyasi figürlere, özellikle de Amerikalı politikacılara daha hızlı hareket etmeleri yönünde baskı yapılması olabileceğini düşünüyor. Bu, yapay zekaya yönelik ilk büyük düzenleyici çerçeve değil; Temmuz ayında Çin, yapay zeka hizmetlerini halka satmak isteyen işletmeler için yönergeleri kabul etti. Ancak AB’nin nispeten şeffaf ve yoğun şekilde tartışılan kalkınma süreci, yapay zeka endüstrisine ne beklemesi gerektiği konusunda bir fikir verdi. Aaronson, (o zamandan beri onaylanan) geçici metnin en azından AB’nin teknolojiyle ilgili kamuoyunun endişelerini dinlediğini ve yanıt verdiğini gösterdiğini söyledi.

Baker McKenzie hukuk firmasının veri gizliliği ve bilgi teknolojisi ortağı Lothar Determann, bunun mevcut veri kurallarına dayanması gerçeğinin hükümetleri yürürlükteki düzenlemeleri değerlendirmeye teşvik edebileceğini söylüyor. Veri gizliliği platformu OneTrust’un baş strateji sorumlusu Blake Brannon, daha olgun yapay zeka şirketlerinin; GDPR gibi yasalara uygun olarak ve daha katı politikalar beklentisiyle gizlilik koruma yönergeleri oluşturduklarını söyledi. Şirkete bağlı olarak Yapay Zeka Yasası’nın halihazırda yürürlükte olan stratejilere “ek bir katkı” olduğunu söyledi.

ABD ise tam tersine, Meta, Amazon, Adobe, Google, Nvidia ve OpenAI gibi büyük oyunculara ev sahipliği yapmasına rağmen yapay zeka düzenlemelerini hayata geçirmekte büyük ölçüde başarısız oldu. Şimdiye kadarki en büyük hamlesi, devlet kurumlarını güvenlik standartları geliştirmeye ve büyük AI oyuncuları tarafından imzalanan gönüllü, bağlayıcı olmayan anlaşmalar oluşturmaya yönlendiren Biden yönetiminin yürütme emri oldu. Senato’da sunulan birkaç yasa tasarısı çoğunlukla derin sahtekarlıklar ve filigranlar etrafında dönüyordu ve Senatör Chuck Schumer (D-NY) tarafından düzenlenen kapalı kapılar ardındaki AI forumları, hükümetin teknolojiyi yönetme yönü konusunda çok az netlik sundu. 

Bu, ABD’nin aynı risk temelli yaklaşımı izleyeceği anlamına gelmiyor ancak veri şeffaflığı kurallarını genişletmeye veya GPAI modellerine biraz daha hoşgörüye izin vermeye çalışabilir. 

Credo AI’in kurucusu ve ulusal AI danışma komitesi üyesi Navrina Singh, AI Yasasının AI yönetimi için büyük bir an olmasına rağmen, işlerin hızlı bir şekilde değişmeyeceğine ve önümüzde hala yapılacak çok iş olduğuna inanıyor. 

Singh, Aralık ayında şunları söyledi: “Atlantik’in her iki yakasındaki düzenleyicilerin odak noktası, yapay zekanın hem şeffaf hem de hesap verebilir olarak; güvenli bir şekilde tasarlanması, geliştirilmesi ve konuşlandırılması konusunda her büyüklükteki kuruluşa yardımcı olmak olmalıdır.” Özellikle şeffaflık konusunda standartların ve kıyaslama süreçlerinin hala eksik olduğunu ekliyor. 

Yasa, mevcut modelleri veya uygulamaları geriye dönük olarak düzenlemiyor ancak OpenAI’in GPT’si, Meta’nın Llama’sı veya Google’ın Gemini’sinin gelecekteki sürümlerinin AB tarafından belirlenen şeffaflık gerekliliklerini dikkate alması gerekecek.

Bir gecede dramatik değişiklikler yaratmayabilir ancak AB’nin yapay zeka konusunda nerede durduğunu gösteriyor.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir