Tıp dünyasında devrim yaratması beklenen yapay zekâ teknolojileri, düşündüğümüzden daha karmaşık sonuçlar doğuruyor. The Lancet’te yayımlanan bir çalışma, deneyimli doktorların yapay zekâ desteği olmadan daha az doğru kanser teşhisi koyduğunu ortaya çıkardı. Bulgular, insan uzmanlığının zayıflaması ve tıbbi becerilerin erozyona uğraması ihtimalini gündeme taşıdı.
Yapay Zekâ Doktorları Nasıl “Daha Kötü” Hale Getirdi?
Polonyalı araştırmacıların yürüttüğü çalışma, 2.000’den fazla kolonoskopi deneyimi olan 19 doktoru kapsadı. AI kullanılmadan önce doktorlar öncü tümörleri %28,4 oranında tespit ediyordu. Ancak yapay zekâ desteği olmadan devam ettiklerinde bu oran %22,4’e düştü. AI ile birlikte çalıştıklarında ise oran %25,3 oldu. Bu durum, “otomasyon yanlılığı” olarak bilinen, doktorların dijital destek olmadan daha az dikkatli ve motive davranmasına bağlanıyor.

Araştırmacılar, bu bulguların tıpkı GPS kullanmaya alışan bir kişinin şehir içinde yol bulma becerisini kaybetmesine benzer bir “deskilling” sürecine işaret ettiğini söylüyor. Yani yapay zekâ, bir yandan doktorlara destek olurken diğer yandan bağımlılık yaratıyor.
Öte yandan, aynı dönemde yayımlanan başka bir araştırma ise farklı bir tablo çiziyor. OpenAI’nin yeni modeli GPT-5, doktorların görsel tanı testlerinde %15–29 oranında daha iyi sonuçlar verdi. ABD’deki Emory Üniversitesi’nin hazırladığı çalışma, GPT-5’in yalnızca yazılı soruları değil, görüntü ve raporları birlikte analiz ederek daha doğru teşhis koyduğunu ortaya koydu. Örneğin, karmaşık bir vaka senaryosunda GPT-5 doğru teşhisi koyarak sonraki adımı eksiksiz önerdi. Bu sonuç, yapay zekânın belirli alanlarda insan doktorları geçtiğini iddia eden “süperinsan” benzetmesini gündeme taşıdı.
Ancak üçüncü bir araştırma bu tabloyu sorguluyor. “MedCheck” adlı inceleme, yapay zekânın tıp testlerindeki yüksek skorlarının gerçekte klinik başarıya karşılık gelmediğini savunuyor. Çalışmaya göre mevcut testlerin %92’si veri kirliliği riski taşıyor, %94’ü dayanıklılığı ölçmüyor ve %96’sı “bilinmezlik ifadesi” gibi güvenlik açısından kritik unsurları test etmiyor. Bu nedenle GPT-5’in “süperinsan” başarılarının aslında yanlış ölçüm yöntemlerinden kaynaklanabileceği belirtiliyor.
Bu üç çalışma birlikte değerlendirildiğinde çarpıcı bir tablo ortaya çıkıyor: AI, doktorların becerilerini zayıflatabilirken, aynı zamanda bazı alanlarda insanları geçecek kadar güçlü hale geliyor. Bu ikilem, gelecekte doktorların rolünün yeniden tanımlanmasını gerektirebilir. Uzmanlar, çözümün AI’ı tamamen reddetmek değil, doğru ölçüm yöntemleri geliştirmek ve doktorların becerilerini canlı tutacak eğitimlerle desteklemek olduğunu vurguluyor.








Yorum Yap