Anthropic CEO’su Dario Amodei, San Francisco’da düzenlenen Anthropic’in ilk geliştirici etkinliği Code with Claude’daki basın toplantısında günümüz yapay zeka modellerinin insanlardan daha düşük bir oranda halüsinasyon gördüğünü belirtti.
Bu açıklamadaki halüsinasyonla aslında yapay zekanın doğru olmayan şeyleri doğru gibi kabul edip sunması kastediliyor. Yapay zeka modelleri bazen uydurma bilgiler sağlayabiliyor. Geliştiriciler, bu halüsinasyonların oranını her yeni yapay zeka modelinde biraz daha düşürüyor.
Elbette ki Amodei böyle bir açıklamayı durduk yere yapmadı. Daha geniş kapsamlı bir konu hakkındaki görüşünü desteklemek için böyle bir ifade tercih etti. Amodei, Anthropic’in yapay genel zekaya giden yolda halüsinasyonların bir sınırlama olmadığını ifade etti.
Şirketin CEO’su, yapay zeka modellerinin yapay genel zekaya ulaşma ihtimali konusunda sektörün en güçlü liderlerden biri. Amodei, geçen yıl yazdığı bir yazıda yapay genel zekanın 2026 gibi kısa bir süre içinde ortaya çıkabileceğini düşündüğünü dile getirdi.
AGI Konusunda Tüm Liderler Amodei Gibi Düşünmüyor
Yapay zeka alanında lider olarak görülen diğer çoğu şirket, halüsinasyonun yapay genel zekaya ulaşmada büyük bir engel teşkil ettiğine inanıyor.
Google DeepMind CEO’su Demis Hassabis, bu haftanın başlarında günümüz yapay zeka modellerinde çok fazla çılgınlık olduğunu, çok fazla bariz soruyu yanlış anladıklarını ifade etti.
Anthropic üzerinden örnek vermek gerekirse, bu ayın başlarında şirketi temsil eden bir avukat, Claude’u bir alıntı için kullandı ancak sohbet botunun halüsinasyon görmesi sonucunda özür dilemek zorunda kaldı.
Yorum Yap