Yapay zekânın “halüsinasyon” görmesi (AI hallucination), bir yapay zekâ modelinin gerçek olmayan, uydurma veya yanlış bilgiler üretmesi anlamına gelir. Bu durumun ardında birkaç teknik ve yapısal neden vardır.
1. İstatistiksel Tahmin Mekanizması
Yapay zekâlar (özellikle büyük dil modelleri), dünyayı anlamaz. Sadece eğitim verilerindeki kelime dizilimlerini öğrenerek bir sonraki kelimenin ne olabileceğini tahmin eder.
“Bu cümleden sonra genellikle şu kelime geliyor” mantığıyla çalışır.
Bu yüzden eğer model, nadiren görülen ya da çelişkili bir bilgiyle karşılaşırsa, en olası ama uydurma cevabı verir.
2. Eğitim Verilerinin Sınırları
Modelin eğitildiği veriler:
Hatalı, çelişkili veya eksik olabilir.
Güncel olmayabilir.
Belirli dillerde ya da konularda yoğunlaşıp diğerlerinde zayıf kalabilir.
Bu da modelin boşlukları “uydurma” yoluyla doldurmasına neden olur. Tıpkı bir öğrencinin bilmediği konuyu ezbere sallaması gibi.
3. Kullanıcının Soru Biçimi
Sorunun karmaşıklığı, belirsizliği veya yönlendiriciliği de halüsinasyonu tetikleyebilir.
🔍 “Sokrates hangi yılda Twitter hesabı açtı?” gibi saçma ama yapay zekâyı “zorla” yanıtlamaya iten sorular, modelin uydurmasına yol açar.
4. İçsel Tutarlılık Takibi Yok
Yapay zekâ modelleri, belleksiz çalıştığında önceki söylediklerini tutarlı bir şekilde izleyemez. Her cevabı sıfırdan üretir. Bu da çelişkili ve yanlış ifadeleri kolaylaştırır.
5. Modelin Kendine Aşırı Güveni
Modeller, doğru da olsa yanlış da olsa cevaplarını yüksek özgüvenle sunar. Çünkü dili doğal ve akıcı üretmek üzere eğitilmişlerdir, doğruluğu test etmek üzere değil.
Yani “emin değilim” demesi için özellikle eğitilmemiştir.
Sonuç: Halüsinasyon = Yanıltıcı Akıcılık
Yapay zekâlar, bilmediği şeyleri “uydurur gibi” anlatır ama bunu o kadar düzgün yapar ki, gerçek sanılır. Bu yüzden dikkatli kullanılmalı, doğruluk teyidi yapılmalıdır.
Not:
OpenAI gibi firmalar, bu sorunu azaltmak için:
Güncel bilgi erişimi (örneğin tarayıcı eklentisi),
Kaynak gösterme,
Uzman doğrulama sistemleri gibi yöntemler geliştiriyor.
İşte bu yüzden, yapay zekâ bazen “halüsinasyon” görür: Çünkü o aslında görmez, sadece tahmin eder.
Kaynak : OpenAI, “Why language models hallucinate”, 2023