Halüsinasyon

Alternatif isimler: hallucination, yapay zeka halüsinasyon

Yapay zeka modelinin gerçek olmayan bilgiyi emin bir tonla üretmesidir.

Halüsinasyon; modelin uydurduğu kaynak, isim, tarih veya sayıyı doğru gibi sunmasıdır. Bilgi tabanı ezbere alındığı, kaynak gösterimi olmadığı ve istatistiksel örüntü kelimelerinin "akla yatkın" göründüğü için ortaya çıkar.

Azaltmak için: kaynak gösterimi isteyin, RAG kullanın, kritik bilgileri prompt'a kendiniz verin ve modelden "emin değilsem söyle" gibi koşul ekleyin. Üretim ortamlarında bir "doğrulama" adımı (örneğin link kontrolü, sayı çapraz-doğrulaması) ekleyerek halüsinasyonu kullanıcıya ulaşmadan yakalayabilirsiniz.

Örnek prompt

Halüsinasyonu azaltan prompt eklentisi

Yanıtında bir kaynağa, isme, tarihe veya sayıya atıfta bulunuyorsan; emin değilsen "[doğrulanması gerekiyor]" yaz. Asla uydurma kaynak veya istatistik üretme.

Sık yapılan hatalar

  • Yalnızca "doğru bilgi ver" demek; ölçülebilir bir azalma sağlamaz.
  • Kaynak gösterimi istemeden uzun cevap istemek; en sık halüsinasyon görülen senaryodur.

Sıkça sorulan sorular

Halüsinasyon tamamen önlenebilir mi?

Hayır, ama RAG, sistem mesajı ile katı kurallar ve doğrulama adımları kombinasyonu ile pratikte kabul edilebilir seviyeye indirilebilir.

İlgili rehberler

Sözlükte ilgili terimler