Large Language Model (LLM)
Ein KI-Modell, das auf riesigen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und generieren kann.
Das Phänomen, bei dem KI-Sprachmodelle plausibel klingende, aber faktisch falsche oder erfundene Informationen generieren.
Halluzinationen sind eines der bekanntesten und problematischsten Phänomene bei Large Language Models: Das Modell generiert sachlich falsche Informationen mit hoher Konfidenz – als wären sie wahr. Es erfindet Zitate, Quellen, Fakten, Personen oder Ereignisse, die nicht existieren. Das Tückische: Halluzinationen klingen oft genauso überzeugend wie korrekte Antworten. LLMs “wissen” nicht, was sie nicht wissen – sie generieren immer den wahrscheinlichsten nächsten Token, unabhängig davon, ob die Information korrekt ist.
Halluzinationen sind eines der größten Probleme aktueller KI-Sprachmodelle. Das Modell generiert Antworten, die grammatisch korrekt und überzeugend klingen, aber inhaltlich falsch sind.
Typische Beispiele für Halluzinationen:
Warum passiert das?
LLMs sind Textgeneratoren, keine Wissensdatenbanken. Sie sagen immer das wahrscheinlichste nächste Wort vorher. Wenn sie keine sichere Antwort haben, generieren sie trotzdem eine – weil sie darauf trainiert wurden, immer zu antworten.
Was hilft dagegen?
| Strategie | Wirksamkeit | Aufwand |
|---|---|---|
| RAG (externe Quellen) | Hoch | Mittel |
| Niedrige Temperature | Mittel | Gering |
| ”Sage ‘Ich weiß es nicht‘“ | Mittel | Gering |
| Quellenangaben fordern | Mittel | Gering |
| Menschliche Überprüfung | Sehr hoch | Hoch |
| Fact-Checking-Tools | Mittel-Hoch | Mittel |
1. Intrinsische Halluzinationen:
2. Extrinsische Halluzinationen:
3. Faithfulness-Halluzinationen:
Statistische Natur:
Decoding-Strategien:
Automatische Metriken:
Erkennungsmethoden:
Auf Modell-Ebene:
Auf System-Ebene:
Auf Prompt-Ebene:
KI-Halluzinationen sind wie ein selbstbewusster Gesprächspartner, der lieber eine überzeugende Antwort erfindet, als zuzugeben, dass er etwas nicht weiß – die Antwort klingt richtig, ist aber frei erfunden.
LLMs generieren manchmal falsche Fakten, erfundene Quellen oder inkorrekte Zusammenhänge
Ursache ist die statistische Natur der Textgenerierung – das Modell 'weiß' nicht, was wahr ist
Lösungsansätze: RAG, Fact-Checking, Confidence Scores und menschliche Überprüfung
Faktenprüfung
Automatische Erkennung von Halluzinationen in KI-generierten Texten
Medizinische KI
Kritische Überprüfung von KI-Diagnosen und -Empfehlungen auf Korrektheit
Rechtsberatung
Validierung von KI-generierten juristischen Informationen gegen echte Gesetzestexte
Content-Erstellung
Qualitätssicherung bei KI-generierten Artikeln und Berichten
LLMs sind statistische Modelle, die das wahrscheinlichste nächste Wort vorhersagen. Sie haben kein Konzept von 'Wahrheit' – sie generieren plausibel klingende Texte basierend auf Mustern in ihren Trainingsdaten. Wenn die Trainingsdaten keine klare Antwort enthalten, füllt das Modell die Lücke mit plausiblen, aber erfundenen Informationen.
Nein, nicht vollständig. Aber sie lassen sich stark reduzieren durch RAG (Zugriff auf verifizierte Quellen), niedrigere Temperature-Einstellungen, Aufforderung zur Quellenangabe und menschliche Überprüfung. Eine Kombination mehrerer Ansätze ist am effektivsten.
Nein. Neuere und größere Modelle halluzinieren tendenziell weniger. Modelle, die mit RLHF trainiert wurden, sind besser darin, Unsicherheit auszudrücken. Die Häufigkeit hängt auch vom Thema ab – bei Nischenthemen halluzinieren Modelle häufiger.
Warnsignale: Sehr spezifische Zahlen oder Daten ohne Quelle, erfundene Zitate oder Paper, Informationen die 'zu perfekt' zum Kontext passen. Am sichersten: Fakten immer mit unabhängigen Quellen verifizieren.