Buna paralel olarak Google, araçları kullanılarak oluşturulan herhangi bir yapay zeka içeriğinin sizi hukuki sorunla karşı karşıya bırakması durumunda sizi savunmaya karar verdi; ancak bir uyarı var.
Google da dahil olmak üzere üretken yapay zeka programlarına dahil olan şirketler, hem yapay zeka modellerini eğitmek için kullandıkları materyaller hem de bu araçların son kullanıcılar için oluşturduğu içerik açısından kendilerini artan incelemelerin ortasında buldular. Örneğin, Google yakın zamanda yapay zeka modelini eğitmek için internetteki halka açık tüm bilgileri kaldırmaya karar verdi. Bu hamlenin kullanıcı gizliliği, veri erişimi izni ve telif hakkı ihlaliyle ilgili sonuçları nedeniyle bazı eleştirilere yol açması bekleniyor.
Bu kamuya açık tartışmaların ardından Google, yapay zeka araçları kullanılarak oluşturulan herhangi bir yapay zeka sanatının veya içeriğinin yanlışlıkla telif hakkı ihlaline yol açması durumunda sorumluluğu üstleneceğini duyurdu (Reuters aracılığıyla).
Bu, Microsoft ve Adobe gibi markaların müşterilerine vaat ettiği koruma türüne benzer şekilde, yapay olarak oluşturulan materyalden etkilenen kullanıcılara hukuki yardım sağlamayı da içeriyor. Bununla birlikte, Google’ın yalnızca yapay zekasının yanlışlıkla telif hakkı yasasını ihlal etmesi ve kasıtlı ihlal durumunda sizi korumaması durumunda suçu üstleneceğini belirtmekte fayda var.
Bard, bu kapsamda yer almıyor
Ayrıca bu olanak yalnızca Google Cloud ve Workspace’in bir parçası olarak sunulan ticari üretken yapay zeka hizmetleri (Vertex AI ve Duet AI) için geçerlidir; Bard listede yer almıyor.
Google’ın ücretsiz hesap kullananlara değil, yalnızca ödeme yapan abonelerine hukuki destek sağlaması ticari anlamda mantıklı. Ancak son kullanıcılar olarak, herhangi bir sorun yaşamamak için yapay zeka ile oluşturduğunuz ve herkese açık olarak paylaştığınız şeyler konusunda daha dikkatli olmanız gerekiyor.
Google, kullanıcılarını korumanın yanı sıra, eğitim modellerindeki haksız önyargıları ortadan kaldırmak için de önlemler alırken, güvenlik açıklarını ve yapay zekanın sosyal özelliklerini belirlemek için kırmızı ekip çalışmasına (gerçek dünyadakine benzer saldırıları taklit etmek için etik bilgisayar korsanlarının yardımını almak) güveniyor. Bununla birlikte şirket, çocukları ve genç yetişkinleri kendilerine uygun olmayabilecek konulardan koruyacak araçlar da ekliyor.