Was ist eine KI-Halluzination?
Von einer KI-Halluzination spricht man, wenn ein großes generatives Sprachmodell (Large Language Model; LLM) falsche Informationen oder Fakten erzeugt, die nicht der Realität entsprechen. Dabei erscheinen die Halluzinationen – zumindest auf den ersten Blick – oft plausibel, da flüssige, kohärente Texte generiert werden.
Wichtig ist jedoch zu betonen, dass LLMs nicht bewusst lügen, sondern schlichtweg kein Bewusstsein für die erstellten Texte haben.
– Thora Markert, Head of AI Research and Governance bei TÜVIT
Wie entstehen KI-Halluzinationen?
Die technischen Gründe für KI-Halluzinationen können vielfältig sein. Mögliche Faktoren sind beispielsweise:
Veraltete, schlechte oder widersprüchliche Trainingsdaten, auf die sich das LLM stützt
Falsche Klassifizierung von Daten
Fehlender Kontext bzw. unklare oder inkonsistente Benutzereingaben
Schwierigkeiten bei der Erkennung von Umgangssprache, Sarkasmus, etc.
Unzureichende Trainings- und Generierungsmethoden/Programmierung
So ist es möglich, dass LLMs auch Halluzinationen erzeugen, obwohl sie auf konsistente und zuverlässige Datensätze zurückgreifen.
Die Eindämmung von Halluzinationen zählt damit zu den grundsätzlichen Herausforderungen für KI-Anwender und Entwickler. Denn LLMs stellen in der Regel eine Blackbox dar, wodurch es mitunter schwierig sein kann, zu ermitteln, warum eine bestimmte Halluzination erzeugt wurde.
Was sind Arten von KI-Halluzinationen?
Der Begriff der KI-Halluzinationen umfasst ein breites Spektrum: Von kleineren Ungereimtheiten bis hin zu frei erfundenen Informationen. Arten von KI-Halluzinationen sind unter anderem:
Satzwidersprüche
Generierte Sätze stehen im Widerspruch zu vorherigen Sätzen bzw. Teilen der erzeugten Antwort.
Widersprüche zur Eingabeaufforderung
Die generierte Antwort oder Teile davon stimmen nicht mit der Eingabeaufforderung durch den Nutzer bzw. die Nutzerin überein.
Faktische Widersprüche
Eine durch das LLM erfundene Information wird als Tatsache verkauft.
Zufällige Halluzinationen
Das LLM erzeugt zufällige Informationen, die nichts mit der eigentlichen Eingabeaufforderung zu tun haben.
Welche Gefahren entstehen durch KI-Halluzinationen?
Verlassen sich Nutzer:innen zu sehr auf die Ergebnisse eines KI-Systems, weil diese sehr überzeugend und zuverlässig aussehen, kann es passieren, dass sie die Falschinformationen nicht nur selbst glauben, sondern auch weiterverbreiten.
Für Unternehmen, die LLM-gestützte Dienste im Rahmen der Kundenkommunikation einsetzen, besteht zudem potenziell die Gefahr, dass Kund:innen mit unwahren Informationen versorgt werden. Das wiederum kann sich negativ auf den Ruf des Unternehmens auswirken.
Durch umfassende Prüfungen unterstützen wir KI-Entwickler dabei, bestehende Risiken bestmöglich zu identifizieren sowie zu minimieren und das Vertrauen in die Technologie weiter zu stärken.“
– Vasilios Danos, Head of AI Security and Trustworthiness bei TÜVIT
Wie erkenne ich KI-Halluzinationen?
Der einfachste Weg, eine KI-Halluzination zu erkennen bzw. zu enttarnen, besteht darin, die ausgegebenen Informationen sorgfältig auf ihre Korrektheit hin zu überprüfen. Als Nutzer:in einer generativen KI sollte man demnach stets im Hinterkopf behalten, dass auch diese Fehler machen kann und nach dem „Vier-Augen-Prinzip“ aus KI und Mensch vorgehen.
Wie können KI-Halluzinationen verhindert werden?
Um KI-Halluzinationen und anderen Herausforderungen von KI-Systemen entgegenzuwirken, sind entsprechende Prüfungen durch unabhängige Dritte empfehlenswert. So können Schwachstellen im besten Falle bereits identifiziert und behoben werden, bevor Anwendungen offiziell zum Einsatz kommen.