Üretken yapay zekayı (genAI) kontrol etmeye yönelik daha önceki çabaların çok belirsiz ve etkisiz olduğu gerekçesiyle eleştirilmesinin ardından, Biden Yönetimi’nin şimdi teknolojinin federal çalışanlar tarafından kullanımına ilişkin yeni, daha kısıtlayıcı kurallar açıklaması bekleniyor.
Pazartesi günü açıklanması beklenen idari emir, AI ile ilgili konular haricinde ABD’nin kalkınma çabalarını hızlandırmaya yardımcı olmak için daha fazla teknoloji çalışanı akışına olanak tanıyacak şekilde göçmenlik standartlarını da değiştirecek.
The Washington Post‘un haberine göre Salı gecesi Beyaz Saray, Pazartesi günü Başkan Joseph R. Biden Jr.’ın ev sahipliği yaptığı “Güvenli, Emniyetli ve Güvenilir Yapay Zeka” etkinliği için davetiye gönderdi.
Baş döndürücü bir hızla ilerleyen ve sektör uzmanları arasında alarm zillerini çalan üretken yapay zeka, Biden’ı geçen Mayıs ayında “rehber” yayınlamaya teşvik etti. Başkan Yardımcısı Kamala Harris ayrıca Google, Microsoft ve popüler ChatGPT sohbet robotunun yaratıcısı OpenAI’nin CEO’larıyla da bir araya gelerek genAI ile ilgili güvenlik, gizlilik ve kontrol sorunlarını içeren potansiyel sorunları tartıştı.
ChatGPT’nin Kasım 2022’de piyasaya sürülmesinden önce bile yönetim, “Yapay Zeka Hakları Bildirgesi”nin yanı sıra Yapay Zeka Risk Yönetimi Çerçevesi için bir plan açıklamıştı; aynı zamanda Ulusal Yapay Zeka Araştırma Kaynağı‘nı oluşturmak için bir yol haritası da hazırladı.
Yeni yönetim emrinin, üretken yapay zekanın temeli olan büyük dil modellerinin (LLM’ler) ABD devlet kurumları tarafından kullanılmadan önce değerlendirmelerden geçmesini gerektirerek ulusal siber güvenlik savunmalarını yükseltmesi bekleniyor. Post’a göre bu kurumlar arasında ABD Savunma Bakanlığı, Enerji Bakanlığı ve istihbarat teşkilatları yer alıyor.
Yeni kurallar, 15 AI geliştirme şirketinin genAI sistemlerinin sorumlu kullanımla tutarlı bir şekilde değerlendirilmesini sağlamak için ellerinden geleni yapma yönündeki gönüllü taahhütlerini güçlendirecek.
GenAI, görevleri otomatikleştirme ve karmaşık metin yanıtları, resimler, videolar ve hatta yazılım kodları oluşturma yeteneğiyle kapsamlı faydalar sunarken, teknolojinin aynı zamanda halüsinasyon olarak bilinen bir anormallik olan hileli olduğu da biliniyor.
GenAI ayrıca hassas veya kişisel olarak tanımlanabilir verileri beklenmedik bir şekilde açığa çıkarabiliyor. En temel düzeyde araçlar, kullanıcılara daha doğru ve derinlemesine içerik sunmak için İnternet’ten, şirketlerden ve hatta devlet kaynaklarından çok büyük miktarlarda veri toplayabiliyor ve analiz edebiliyor. Dezavantajı, AI tarafından toplanan bilgilerin mutlaka güvenli bir şekilde saklanmaması. AI uygulamaları ve ağları, bu hassas bilgileri üçüncü tarafların veri istismarına karşı savunmasız hale getirebiliyor.
Örneğin akıllı telefonlar ve sürücüsüz arabalar, kullanıcıların konumlarını ve sürüş alışkanlıklarını takip ediyor. Bu izleme yazılımı, teknolojinin kullanıcılara daha verimli hizmet verebilmek için alışkanlıkları daha iyi anlamasına yardımcı olmayı amaçlasa da, aynı zamanda AI modellerini eğitmek için kullanılan büyük veri setlerinin bir parçası olarak kişisel bilgileri de topluyor.
Dijital dönüşüm hizmetleri şirketi UST’nin baş yapay zeka mimarı Adnan Masood’a göre, AI geliştiren şirketler için yönetim emri, uygulamalarına nasıl yaklaşacakları konusunda bir revizyon gerektirebilir. Yeni kurallar, başlangıçta operasyonel maliyetleri de artırabilir.
Masood, “Ancak, ulusal standartlara uyum sağlamak aynı zamanda ürünlerine yönelik federal satın alma süreçlerini de kolaylaştırabilir ve özel tüketiciler arasında güveni artırabilir.” dedi.
Masood, Beyaz Saray’ın yaklaşan düzenlemelerinin “uzun zamandır geldiğini ve bunun ABD hükümetinin yapay zeka teknolojisinden yararlanma ve kontrol altına alma yaklaşımında kritik bir noktada iyi bir adım olduğunu” söyledi.
Masood, “Düzenleyici erişimin araştırma ve geliştirme alanlarına genişletilmesi konusunda çekincelerim var.” dedi. “Yapay zeka araştırmasının doğası, aşırı düzenlemelerle engellenebilecek düzeyde bir açıklık ve kolektif inceleme gerektirir. Özellikle, bu alandaki çoğu yeniliğin arkasında itici güç olan açık kaynaklı yapay zeka girişimlerini engelleyebilecek her türlü kısıtlamaya karşı çıkıyorum. Bu işbirlikçi platformlar, yapay zeka modellerindeki kusurların hızla tanımlanmasına ve düzeltilmesine olanak tanıyarak güvenilirliklerini ve güvenliklerini güçlendiriyor.“
GenAI aynı zamanda erkekleri kadınlara veya beyaz adayları azınlıklara tercih etme eğiliminde olan AI destekli işe alım uygulamaları gibi yerleşik önyargılara karşı da savunmasız. Ve genAI araçları doğal dili, görüntüleri ve videoları taklit etme konusunda daha iyi hale geldikçe, yakında sahte sonuçları gerçek olanlardan ayırt etmek imkansız hale gelecek; bu da şirketleri, ister kazara ister kötü aktörlerin kasıtlı çabaları olsun, en kötü sonuçlara karşı “korkuluklar” kurmaya teşvik ediyor.
ABD’nin yapay zekayı kontrol altına alma çabaları, Avrupa ülkelerinin teknolojinin AB yasalarını ihlal eden içerik üretmemesini sağlamaya yönelik benzer çabalarını takip etti; Buna çocuk pornografisi veya bazı AB ülkelerinde Holokost’un inkarı da dahil olabilir. İtalya, doğal dil işleme uygulamasının kullanıcı konuşmalarını ve ödeme bilgilerini içeren bir veri ihlali yaşamasının ardından gizlilik endişeleri nedeniyle ChatGPT’nin daha da geliştirilmesini tamamen yasakladı.
Avrupa Birliği’nin “Yapay Zeka Yasası” (AI Yasası), Batılı ülkeler tarafından türünün ilk örneğiydi. Önerilen mevzuat büyük ölçüde Genel Veri Koruma Yönetmeliği (GDPR), Dijital Hizmetler Yasası ve Dijital Piyasalar Yasası gibi mevcut kurallara dayanıyor. Yapay Zeka Yasası ilk olarak Avrupa Komisyonu tarafından Nisan 2021’de önerilmişti.
Eyaletler ve belediyeler, mahremiyet ve önyargı sorunları nedeniyle iş adaylarını bulmak, taramak, mülakat yapmak ve işe almak için yapay zeka tabanlı botların kullanımına ilişkin kendi kısıtlamalarını göz önünde bulunduruyor.
Masood, genAI’nin devam eden bir patlama yaşadığı ve içerik, derin sahtekarlıklar ve potansiyel olarak yeni siber tehdit biçimleri oluşturmada benzeri görülmemiş yeteneklere yol açtığı göz önüne alındığında Biden’ın hareketinin özellikle kritik olduğunu söyledi.
“Bu manzara, hükümetin rolünün sadece bir düzenleyici değil, aynı zamanda yapay zeka teknolojisinin kolaylaştırıcısı ve tüketicisi olduğunu açıkça ortaya koyuyor.” diye ekledi. “ABD hükümeti, yapay zekaya ilişkin federal değerlendirmeleri zorunlu kılarak ve siber güvenlikteki rolünü vurgulayarak, yapay zekanın ikili doğasını hem stratejik bir varlık hem de potansiyel bir risk olarak kabul ediyor.”
Masood, yapay zeka düzenlemelerine incelikli bir yaklaşımın sadık bir savunucusu olduğunu, çünkü yapay zeka ürünlerinin dağıtımını denetlemenin, güvenlik ve etik standartları karşıladıklarından emin olmak için gerekli olduğunu söyledi.
“Örneğin, sağlık hizmetlerinde veya otonom araçlarda kullanılan gelişmiş yapay zeka modellerinin, halkın refahını korumak için sıkı testlerden ve uyumluluk kontrollerinden geçmesi gerekiyor.” dedi.