GPT-4 ile desteklenen ChatGPT, tıbbi lisanslama sınavına tabi tutuldu ve yeni model, sınavı başarılı bir şekilde tamamladı.
Insider tarafından aktarılan bilgilere göre Harvard Üniversitesinde bilgisayar bilimci olan Dr. Isaac Kohane, iki meslektaşı ile GPT-4’ü test etmek için bir araya geldi. Ekibin amacı, OpenAI tarafından geliştirilen en yeni yapay zekâ modelinin tıbbi alanda nasıl bir başarı sergilediğini öğrenmekti.
Kohane, yakın bir zamanda yayımlanacak olan “The AI Revolution in Medicine” isimli kitapta Mart 2023’te abonelere sunulan GPT-4’ün ABD tıbbi sınav lisans sorularına cevap verme oranının yüzde 90’dan daha yüksek olduğunu içeriyor.
ChatGPT Tıbbi Lisanslama Sınavındaki Başarısıyla Sınırlı Kalmıyor
GPT-4 sadece sınavları başarılı bir şekilde çözmekle sınırlı kalmıyor aynı zamanda harika bir tercüman da oluyor. Kitapta Portekizce konuşan bir hastanın taburcu bilgilerini çevirmeye ve teknik jargonları 6. sınıf öğrencilerinin büyük bir kolaylıkla okumasını sağlayacak bir şekilde yeniden yazmasını sağlama yeteneği olduğu bilgisi yer alıyor.
OpenAI’ın yapay zekâ modeli, yazarların örnekler üzerinden de açıkladığı gibi, doktorlara yardımcı olacak tavsiyeler ve görüşler verebiliyor. Ayrıca hastalar ile durumları hakkında nasıl konuşacağı konusunda önemli ipuçları da sunuyor. Uzun raporları ya da çalışmaları okuyup bunların özetini çıkarabiliyor. Üstelik bunları bir göz açıp kapatana kadar geçen sürede yapıyor.
Bütün bunların nasıl yapıldığı söz konusu olduğunda ise parmaklar kalıplara gidiyor. Bir diğer deyişle, yapay zekâ bu kadar yetenekli olmasını kendisinin eğitiminde kullanılan verilere borçlu. Bu da onu kalıplarla sınırlı hâle getiriyor ve insan gibi düşünmesinin önünde engel oluşturuyor.
Kohane, bu tür sınırlamalara rağmen GPT-4’ün doktorların teşhis etme yöntemini şaşırtıcı bir şekilde başarıyla uygulayabileceğini söyledi.
GPT-4 Mükemmel Değil
OpenAI’ın GPT-4’ü her zaman kusursuz ve güvenilir olmayabiliyor. Kitapta buna harika örnekler veriliyor. Örneğin bot birkaç dakika önce doğru bir şekilde hesaplama yaparken üzerinden bir süre geçtikten sonra vücut kitle indeksini yanlış belirtmek gibi basit hatalar yapabiliyor.
Önceki modeller gibi bu model de halüsinasyon görebilir. Kitabın yazarları tarafından bu sorunun dile getirilmesi üzerine GPT-4 şu yanıtı veriyor:
“Herhangi birini aldatmak veya yanıltmak gibi bir amacım yok ama bazen eksik ya da yanıltıcı bilgilere dayanarak hatalar yapabilirim ya da varsayımlarda bulunabilirim. Ek olarak, bir doktor ya da hemşirenin klinik uzmanlığına veya etik sorumluluğuna da sahip değilim.”