Zum Inhalt springen
Agent Hub
Zurück zum Glossar
fundamentals

Halluzination

Eine Halluzination ist eine plausibel klingende, aber faktisch falsche Antwort eines Sprachmodells — z.B. ein erfundenes Zitat oder eine erfundene Funktion einer Software.

Auch genannt: Hallucination

Im Detail

Halluzinationen entstehen, weil LLMs auf Wahrscheinlichkeit trainiert sind, nicht auf Wahrheit. Mit folgenden Gegenmaßnahmen reduzieren wir sie auf <2%:

  • RAG: nur auf Basis Ihrer echten Dokumente antworten
  • Quellen-Pflicht: jede Aussage braucht eine Source-ID, sonst wird die Antwort verworfen
  • Konfidenz-Schwellen: bei niedriger Sicherheit Mensch-Übergabe statt raten
  • Eval-Suiten mit echten Kunden-Fragen, die jede neue Version durchlaufen muss

Verwandte Begriffe