Halüsinasyon
Alternatif isimler: hallucination, yapay zeka halüsinasyon
Yapay zeka modelinin gerçek olmayan bilgiyi emin bir tonla üretmesidir.
Halüsinasyon; modelin uydurduğu kaynak, isim, tarih veya sayıyı doğru gibi sunmasıdır. Bilgi tabanı ezbere alındığı, kaynak gösterimi olmadığı ve istatistiksel örüntü kelimelerinin "akla yatkın" göründüğü için ortaya çıkar.
Azaltmak için: kaynak gösterimi isteyin, RAG kullanın, kritik bilgileri prompt'a kendiniz verin ve modelden "emin değilsem söyle" gibi koşul ekleyin. Üretim ortamlarında bir "doğrulama" adımı (örneğin link kontrolü, sayı çapraz-doğrulaması) ekleyerek halüsinasyonu kullanıcıya ulaşmadan yakalayabilirsiniz.
Örnek prompt
Halüsinasyonu azaltan prompt eklentisi
Yanıtında bir kaynağa, isme, tarihe veya sayıya atıfta bulunuyorsan; emin değilsen "[doğrulanması gerekiyor]" yaz. Asla uydurma kaynak veya istatistik üretme.
Sık yapılan hatalar
- Yalnızca "doğru bilgi ver" demek; ölçülebilir bir azalma sağlamaz.
- Kaynak gösterimi istemeden uzun cevap istemek; en sık halüsinasyon görülen senaryodur.
Sıkça sorulan sorular
Halüsinasyon tamamen önlenebilir mi?
Hayır, ama RAG, sistem mesajı ile katı kurallar ve doğrulama adımları kombinasyonu ile pratikte kabul edilebilir seviyeye indirilebilir.