OpenAI’nin en son yapay zeka modeli halen çok basit hatalar yapabiliyor. Milyarlarca dolar harcanmasına rağmen, model halen “çilek” kelimesinde “r” harfinin kaç kez geçtiğini güvenilir bir şekilde söyleyemiyor. Tıbbi yapay zeka alanında da benzer sorunlar gözlemleniyor.
Tıbbi yapay zeka hasta durumu için güvenilir olmayabilir
MyChart adlı bir iletişim platformunda doktorlar ve hastalar arasında günde yüz binlerce mesaj alışverişi yapılıyor ve şirket yakın zamanda hastaların sorularına doktorlar ve asistanlar adına otomatik olarak yanıt hazırlayan yeni bir yapay zeka destekli özellik ekledi. New York Times’ın haberine göre , yapay zekanın potansiyel olarak tehlikeli hatalara yol açma olasılığına rağmen, yaklaşık 15.000 doktor bu özellikten yararlanıyor. Örneğin, UNC Health aile hekimi doktoru Vinay Reddy, NYT’ye yaptığı açıklamada , yapay zeka tarafından oluşturulan bir taslak mesajın, hastalarından birine aşı kayıtlarına hiçbir zaman ulaşamamış olmasına rağmen Hepatit B aşısı yaptırdığına dair güvence verdiğini söyledi.
Daha da kötüsü, yeni MyChart aracının verilen bir yanıtın bir AI tarafından yazıldığını ifşa etmesi gerekmiyor. Bu, hastaların bir algoritma tarafından tıbbi tavsiye aldıklarını fark etmelerini neredeyse imkansız hale getirebilir. ChatGPT’yi destekleyen OpenAI büyük dil modeli olan GPT-4’ün bir versiyonuna dayanan araç, tıbbi kayıtlar ve ilaç reçeteleri de dahil olmak üzere materyallerden veri çekiyor. Hatta bu araç doktorun “sesini” bile taklit etmeye çalışıyor ve bu da işi daha da sinsi hale getiriyor. Tıbbi yapay zeka kullanımında etik sorunlar da tartışılıyor.
Eleştirmenler, tıp uzmanlarının bu taslakları incelemesi gerektiği halde, yapay zekanın gözden kaçabilecek hatalara yol açabileceğinden endişe ediyor. Zaten gerçekleşebilecek çok sayıda kanıt var. Temmuz ayında yapılan bir çalışmada , araştırmacılar MyChart’ın aracıyla AI tarafından oluşturulan 116 taslak mesajın yedisinde “halüsinasyonlar” buldular. Tıbbi yapay zeka konusunda daha fazla araştırma yapılması gerektiğini vurguluyorlar.
Bu çok büyük bir şey gibi görünmese de tek bir hata bile feci sonuçlara yol açabilir. Ayrı bir araştırmada, GPT-4’ün hasta mesajlarına yanıt verme görevi verildiğinde tekrar tekrar hata yaptığı bulundu. Bazı hastalar bir yapay zekadan tavsiye aldıklarını asla öğrenemeyebilir. Mesajların yapay zeka tarafından üretildiği şeklinde etiketlenmesi gerektiğine dair federal kurallar yok.