20 gün içinde, 1 Ağustos’ta yeni yasa yürürlüğe girecek ve 24 ay içinde (yani 2026’nın ortalarında) hükümleri genel olarak yapay zeka geliştiricileri için tamamen geçerli olacak.
Ancak, yasa AB’nin AI kural kitabını uygulamaya yönelik aşamalı bir yaklaşım benimsiyor, bu da o zamana kadar farklı yasal hükümler uygulanmaya başlayacağı için dikkate alınması gereken çeşitli son tarihler olduğu anlamına geliyor.
AB milletvekilleri, geçen yılın Aralık ayında yapay zekaya ilişkin bloğun ilk kapsamlı kural kitabı üzerinde siyasi bir anlaşmaya vardılar.
Çerçeve, kullanım durumlarına ve algılanan riske bağlı olarak AI geliştiricilerine farklı yükümlülükler getiriyor. AI kullanımlarının büyük kısmı düşük riskli kabul edildikleri için düzenlenmeyecek ancak AI için olası kullanım durumlarının az bir kısmı yasa kapsamında yasaklanmıştır.
Yapay zekanın biyometrik kullanımı veya kolluk kuvvetleri, istihdam, eğitim ve kritik altyapı alanlarında kullanılması gibi sözde “yüksek riskli” kullanım durumları yasalarca izin veriliyor, ancak bu tür uygulamaların geliştiricileri veri kalitesi ve önyargıya karşı olma gibi alanlarda yükümlülüklerle karşı karşıya kalıyor.
Üçüncü bir risk katmanı da yapay zeka sohbet robotları gibi araçların üreticilerine daha hafif şeffaflık gereklilikleri getiriyor.
OpenAI’in GPT’si gibi genel amaçlı AI (GPAI) modelleri üreticileri için, ChatGPT’nin altında yatan teknoloji için de bazı şeffaflık gereklilikleri var. Genellikle hesaplama eşiğine göre ayarlanan en güçlü GPAI’lerin, sistemsel risk değerlendirmesi yapması da gerekebilir.
Yapay zeka sektörünün bazı unsurlarının, bir avuç Üye Devlet hükümetinin desteğiyle yürüttüğü yoğun lobi faaliyetleri, yasanın Avrupa’nın ABD ve Çin’deki rakipleriyle rekabet edebilecek yerli yapay zeka devleri üretme kabiliyetini kısıtlayabileceği endişesiyle GPAI’ler üzerindeki yükümlülükleri hafifletmeye çalıştı.
Aşamalı uygulama
Öncelikle, yapay zekanın yasaklı kullanımları listesi, yasanın yürürlüğe girmesinden altı ay sonra, yani 2025’in başlarında geçerli olacak.
Yakında yasa dışı olacak olan yapay zeka için yasaklı (veya “kabul edilemez risk”) kullanım örnekleri arasında Çin tarzı sosyal kredi puanlaması, internetin veya CCTV’nin hedefsiz taranmasıyla yüz tanıma veri tabanlarının derlenmesi ve kolluk kuvvetleri tarafından kamusal alanlarda gerçek zamanlı uzaktan biyometri kullanımı yer alıyor.
Ancak, kayıp veya kaçırılan kişilerin aranması gibi birkaç istisnadan biri geçerli olmadığı sürece.
Daha sonra, yürürlüğe girmesinden dokuz ay sonra, yani yaklaşık olarak Nisan 2025’te; uygulama kuralları kapsam dahilindeki yapay zeka uygulamalarının geliştiricileri için geçerli olacak.
AB’nin AI Ofisi, yasayla kurulan bir ekosistem oluşturma ve denetim organı, bu kodları sağlamaktan sorumlu. Ancak yönergeleri gerçekten kimin yazacağı hala soru işaretleri yaratıyor.
Bu ayın başlarında yayınlanan bir Euractiv raporuna göre AB, kodların taslağını hazırlamak için danışmanlık şirketleri arıyordu ve bu durum, AI endüstrisi oyuncularının kendilerine uygulanacak kuralların şeklini etkileyebilecekleri yönündeki sivil toplum endişelerini tetikledi.
Daha yakın zamanda MLex, Avrupa Parlamentosu üyelerinin süreci kapsayıcı hale getirmesi yönündeki baskılarının ardından AI Ofisinin genel amaçlı AI modelleri için uygulama kodlarını hazırlamak üzere paydaşları seçmek için bir ilgi beyanı çağrısı başlatacağını bildirdi.
Bir diğer önemli son tarih ise yürürlüğe girmesinden 12 ay sonra, yani 1 Ağustos 2025’te, şeffaflık gerekliliklerine uyması gereken GPAI’lara ilişkin kuralların uygulanmaya başlanması olacak.
Yüksek riskli AI sistemlerinin bir alt kümesine en cömert uyumluluk son tarihi verildi, yürürlüğe girdikten sonra 36 ay yükümlülüklerini yerine getirmelerine izin verildi. Diğer yüksek riskli sistemler daha erken, 24 ay sonra uyum sağlamalı.