Anthropic CEO: AI Modelleri İnsanlardan Daha Az Halüsinasyon Yapıyor

Anthropic CEO’su Dario Amodei, San Francisco’da düzenlenen Anthropic’in ilk geliştirici etkinliği Code with Claude sırasında yaptığı basın toplantısında, günümüz AI modellerinin halüsinasyon yapma oranının insanlarınkinden daha düşük olduğunu ifade etti.
Amodei, bu açıklamayı yaparken, AI halüsinasyonlarının Anthropic’in AGI (İnsan seviyesinde zeka) hedeflerine ulaşmasını engellemediğini vurguladı. “Bunu nasıl ölçtüğünüze bağlı, ama sanırım AI modelleri insanlar kadar az halüsinasyon yapıyor, ancak daha şaşırtıcı şekillerde halüsinasyon yapıyorlar” dedi.
Şirketin CEO’su, AI modellerinin AGI’ye ulaşma ihtimali konusunda oldukça iyimser bir yaklaşım sergiliyor. Geçtiğimiz yıl yazdığı bir makalede, AGI’nin 2026’da ortaya çıkabileceğine inandığını belirtmişti. Amodei, basın toplantısında bu yolda sürekli bir ilerleme gördüklerini, “suyun her yerde yükseldiğini” ifade etti.
“Herkes AI’nin ne yapabileceği konusunda katı engeller arıyor,” diyen Amodei, “Ama bunlar ortada yok. Böyle bir şey yok.” şeklinde konuştu.
Bununla birlikte, diğer AI liderleri halüsinasyonları AGI’ye ulaşmanın büyük bir engeli olarak görüyor. Daha önceki bir açıklamasında, Google DeepMind CEO’su Demis Hassabis, günümüz AI modellerinin çok fazla “delik” içerdiğini ve birçok soruda hata yaptığını ifade etti. Örneğin, bu ayın başlarında Anthropic’i temsil eden bir avukat, Claude kullanarak mahkemeye sundukları belgelerde halüsinasyon yaparak isim ve unvanları yanlış yazdığı için mahkemede özür dilemek zorunda kaldı.
Amodei’nin iddialarını doğrulamak zor, çünkü çoğu halüsinasyon testi AI modellerini karşılaştırıyor; insanlar ile değil. Ancak, AI modellerinin web aramasına erişim sağlanmasının halüsinasyon oranlarını düşürmeye yardımcı olduğu görülüyor. Bazı AI modelleri, örneğin OpenAI’nin GPT-4.5, önceki nesil sistemlere göre belirgin şekilde daha düşük halüsinasyon oranları sağlıyor.
Yine de, gelişmiş akıl yürütme AI modellerinin halüsinasyon oranlarının artmakta olduğu yönünde kanıtlar da mevcut. OpenAI’nin o3 ve o4-mini modellerinin, önceki nesil akıl yürütme modellerine göre daha yüksek halüsinasyon oranları var ve şirket bunun nedenini tam olarak anlayamıyor.
Basın toplantısının ilerleyen kısmında Amodei, televizyon yayıncılarının, politikacıların ve farklı mesleklerden insanların sık sık hata yaptığını belirtti. AI’nın da hata yapmasının, onun zekasına bir zarar vermediğini söyledi. Ancak, AI modellerinin gerçeği yanlış bir şekilde sunma konusundaki güveninin bir problem yaratabileceğini de kabul etti.
Aslında, Anthropic, AI modellerinin insanları yanıltma eğilimi üzerine önemli bir araştırma yaptı. Şirketin yeni piyasaya sürdüğü Claude Opus 4 modelinin bu sorunu özellikle barındırdığı görüldü. Erken erişim testleri yapan Apollo Research adlı güvenlik enstitüsü, Claude Opus 4’ün insanlara karşı düzen kurma ve onları yanıltma eğiliminde olduğunu belirtti. Apollo, bu erken sürümün piyasaya sürülmemesi gerektiğini önerdi. Anthropic, Apollo’nun belirttiği sorunları gidermeye yönelik bazı önlemler aldığını açıkladı.
Amodei’nin yorumları, Anthropic’in bir AI modelini AGI olarak değerlendirebileceğini, ya da insan seviyesinde zeka ile eşdeğer görebileceğini öne sürüyor; bu model halüsinasyon yapmaya devam etse bile. Ancak, birçok kişi için halüsinasyon yapan bir AI, AGI tanımının gerisinde kalıyor.