İşyerinde yapay zeka üretkenlik konusunda endişelere neden oluyor. Yapay zeka ile yeni ihtiyaçlar ortaya çıkıyor.
Üretken yapay zeka katlanarak büyürken, bu çözümlerin işyerindeki yasal, etik ve güvenlik etkilerini değerlendirmeye yönelik acil bir ihtiyaç bulunuyor.
Endüstri uzmanları tarafından vurgulanan endişelerden biri, çoğu üretken yapay zeka modelinin üzerinde eğitildiği verilerle ilgili şeffaflığın olmaması. ChatGPT gibi uygulamalara güç veren GPT-4 gibi modellerde kullanılan eğitim verilerinin özellikleri hakkında yeterli bilgi bulunmuyor. Bu netlik eksikliği, bireysel kullanıcılarla etkileşimler sırasında elde edilen bilgilerin depolanmasına kadar uzanarak yasal ve uyumluluk risklerini artırıyor.
Üretken yapay zeka çözümleriyle etkileşimler yoluyla hassas şirket verilerinin veya kodunun sızma potansiyeli önemli bir endişe kaynağı. Oxylabs Risk Yönetimi Başkanı Vaidotas Sedys: “Bireysel çalışanlar, popüler üretken yapay zeka çözümleriyle etkileşim kurarken hassas şirket verilerini veya kodlarını sızdırabilir. ChatGPT’ye veya başka herhangi bir üretken yapay zeka sistemine gönderilen verilerin saklanabileceğine ve diğer insanlarla paylaşılabileceğine dair somut bir kanıt olmasa da yeni ve daha az test edilmiş yazılımların genellikle güvenlik açıkları olması nedeniyle risk hala devam ediyor” dedi.
Yapay zeka çalışma hayatı için tehlike mi?
ChatGPT’nin arkasındaki kuruluş olan OpenAI, kullanıcı verilerinin nasıl işlendiğine ilişkin ayrıntılı bilgiler sağlama konusunda temkinli davranıyor. Bu, gizli kod parçalarının sızdırılması riskini azaltmak isteyen kuruluşlar için zorluklar yaratıyor. Çalışan faaliyetlerinin sürekli olarak izlenmesi ve üretici yapay zeka platformlarının kullanımı için uyarıların uygulanması gerekli hale gelir ve bu da birçok kuruluş için külfetli olabilir.
Sedys: “Diğer riskler arasında, özellikle yapay zeka çıktısının kalitesini genellikle değerlendiremeyen genç uzmanlar söz konusu olduğunda, yanlış veya güncel olmayan bilgilerin kullanılması yer alıyor. Üretken modellerin çoğu, sürekli güncellenmesi gereken büyük ancak sınırlı veri kümelerinde çalışıyor” diyor. Bu modellerin sınırlı bir bağlam penceresi vardır ve yeni bilgilerle uğraşırken zorluklarla karşılaşabilirler. OpenAI , en son çerçevesi olan GPT-4’ün, yanlış bilgilerin yayılmasına yol açabilecek olgusal yanlışlıklardan muzdarip olduğunu kabul etti.
Sonuçlar bireysel şirketlerin ötesine uzanıyor. Örneğin, popüler bir geliştirici topluluğu olan Stack Overflow, ChatGPT ile oluşturulan içeriğin kullanımını, kodlama yanıtları arayan kullanıcıları yanıltabilecek düşük kesinlik oranları nedeniyle geçici olarak yasakladı. Ücretsiz üretken yapay zeka çözümleri kullanılırken yasal riskler de devreye giriyor. GitHub’ın Yardımcı Pilotu, halka açık ve açık kaynak havuzlarından telif hakkıyla korunan kod parçalarını dahil ettiği için şimdiden suçlamalar ve davalarla karşı karşıya kaldı. Sedys: “Yapay zeka tarafından üretilen kod, başka bir şirkete veya kişiye ait özel bilgiler veya ticari sırlar içerebileceğinden, geliştiricileri bu tür kodu kullanan şirket, üçüncü taraf haklarının ihlalinden sorumlu olabilir” diye açıklıyor.
“Ayrıca, telif hakkı yasalarına uyulmaması, keşfedilirse yatırımcıların şirket değerlendirmesini etkileyebilir.”
Kuruluşlar tam bir iş yeri gözetimini mümkün bir şekilde gerçekleştiremese de, bireysel farkındalık ve sorumluluk çok önemlidir. Üretken yapay zeka çözümleriyle ilişkili potansiyel riskler konusunda halkı eğitmek çok önemlidir.
Sektör liderleri, kuruluşlar ve bireyler, iş yerinde üretken yapay zekanın veri gizliliği, doğruluğu ve yasal risklerini ele almak için işbirliği yapmalıdır.