← Zurück zum Glossarfundamentals
Halluzination
Eine Halluzination ist eine plausibel klingende, aber faktisch falsche Antwort eines Sprachmodells — z.B. ein erfundenes Zitat oder eine erfundene Funktion einer Software.
Auch genannt: Hallucination
Im Detail
Halluzinationen entstehen, weil LLMs auf Wahrscheinlichkeit trainiert sind, nicht auf Wahrheit. Mit folgenden Gegenmaßnahmen reduzieren wir sie auf <2%:
- RAG: nur auf Basis Ihrer echten Dokumente antworten
- Quellen-Pflicht: jede Aussage braucht eine Source-ID, sonst wird die Antwort verworfen
- Konfidenz-Schwellen: bei niedriger Sicherheit Mensch-Übergabe statt raten
- Eval-Suiten mit echten Kunden-Fragen, die jede neue Version durchlaufen muss
Verwandte Begriffe
- KI-AgentEin KI-Agent ist ein Programm auf Basis eines Sprachmodells, das eigenständig Aufgaben erledigt: es versteht eine Anfrage, plant Schritte, ruft Tools auf und antwortet mit Ergebnis statt nur mit Text.
- PromptEin Prompt ist die Instruktion, die ein Sprachmodell bekommt — sie definiert Rolle, Tonfall, erlaubte Aktionen und gibt den Kontext für die Antwort.
- AuftragsverarbeitungEin Auftragsverarbeitungsvertrag (AVV) regelt rechtlich, wie ein Anbieter personenbezogene Daten im Auftrag des Kunden verarbeitet — DSGVO-Pflicht für jeden KI-Dienstleister.