Yapay Zeka ve Sağlık: Tehlikeler ve Yanılgılar

0
yapay-zeka-sagligimizi-tehdit-mi-ediyor-tavsiyelerinin-yarisi-sorunlu-ZTJq4EOs

Yapay zeka günümüzde bilgiye erişim konusunda en hızlı araçlardan biri haline gelmiş durumda. Ancak sağlık ve tıp ile ilgili konularda, yapay zeka tabanlı sohbet botlarının güvenilirliği ciddi bir tartışma konusu olmaya başladı. BMJ Open dergisinde yayımlanan kapsamlı bir araştırma, kanser, aşılar, beslenme ve atletik performans gibi 50 farklı tıbbi sorunun beş farklı yapay zeka modeline yöneltildiği bir çalışmayı ele alıyor. Uzmanların değerlendirmeleri, dijital asistanların sağlık tavsiyeleri açısından ne kadar “tehlikeli” olabileceğini gözler önüne seriyor.

YAPAY ZEKANIN KAYNAKLARI GÜVENİLİR DEĞİL Araştırma, incelenen sohbet botlarının hiçbirinin doğru bir referans listesi sunamadığını ortaya koydu. Yapay zekanın sunduğu kaynakların büyük bir çoğunluğunda yanlış yazar isimleri, çalışmayan bağlantılar ve hatta tamamen uydurulmuş akademik makaleler bulunduğu tespit edildi. Bilimsel veri gibi sunulan bu bilgilerin, aslında dil modellerinin kelime tahminleriyle şekillendiği vurgulandı.

EN HATALI YAZILIM: GROK Performans karşılaştırmasında dikkat çeken sonuçlar ortaya çıktı. Grok, %58 hata oranıyla en çok hatayı yapan yazılım olurken, ChatGPT %52 hata oranıyla ikinci, Meta AI ise %50 hata oranıyla üçüncü sırada yer aldı. Özellikle beslenme ve atletik performans gibi bilgi kirliliğinin yoğun olduğu alanlarda, yapay zekanın hata oranının zirve yaptığı kaydedildi.

AÇIK UÇLU SORULARDA RİSK ARTIYOR Çalışmada, yapay zekanın kapalı uçlu sorulara, yani “doğru mu, yanlış mı?” gibi sorulara nispeten başarılı olduğu görüldü. Ancak kullanıcıların günlük yaşamda sıkça sorduğu açık uçlu sorularda hata oranının %32 düzeyinde “yüksek derecede sorunlu” olduğu belirlendi.

UZMANLAR UYARIYOR Uzmanlar, bu yapay zeka modellerinin gerçek bir bilgi birikimine sahip olmadığını, sadece eğitim verilerinden (forumlar, sosyal medya, akademik makaleler) elde edilen istatistikler doğrultusunda kelime seçiminde bulunduğunu hatırlatıyor. Nature Medicine dergisinde yayımlanan bir başka çalışma, yapay zekanın tek başına %95 doğru yanıt verebilse de, bir insanla etkileşimde bulunduğunda doğru bilgiye ulaşma oranının %35’e kadar düştüğünü ortaya koyuyor. Bilim insanları, yapay zekanın yalnızca karmaşık konuları özetlemek veya doktorlara sorulacak soruları hazırlamak için bir “yardımcı” olarak kullanılabileceğini; asla tek başına bir tıbbi otorite olarak kabul edilmemesi gerektiğini vurguluyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir