Was sind KI-Halluzinationen?

KI-Halluzinationen: Warum Künstliche Intelligenz manchmal Fakten erfindet

Künstliche Intelligenz beeindruckt im Alltag durch Wissen, Schnelligkeit und Präzision – bis sie plötzlich Fakten erfindet, die es nie gegeben hat. Das Phänomen der sogenannten KI-Halluzinationen zeigt: KI kann rechnen, schreiben und sprechen – und dabei erstaunlich menschlich wirken –, aber unsere Welt (noch) nicht vollständig verstehen.

Was ist eine KI-Halluzination?

KI-Halluzinationen entstehen, wenn eine KI Inhalte erzeugt, die zwar richtig klingen und auch auf echten Informationen basieren, aber nicht mit den tatsächlichen genutzten Quellen oder Daten übereinstimmen. Es handelt sich also um „Falschaussagen, die auf korrektem Hintergrundwissen basieren“. Vor allem sogenannte Large Language Model (LLM) wie Chat GPT sind regelmäßig am Halluzinieren.

Wie häufig treten Halluzinationen auf?

Eine aktuelle Studie der Europäischen Rundfunkunion kommt zu ernüchternden Ergebnissen. Der Zusammenschluss internationaler öffentlich-rechtlicher Medienanstalten untersuchte ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) und Perplexity und stellte fest:

  • 45 % aller Antworten enthielten schwerwiegende Fehler,

  • insgesamt 81 % der getesteten Antworten wiesen irgendwelche Fehler auf.

Besonders kritisch: In 31 % der Fälle waren die Quellenangaben fehlerhaft. Von unpassenden oder falschen Quellen bis hin zu frei erfundenen Referenzen. Teilweise gaben die Modelle sogar an, Informationen stammten von öffentlich-rechtlichen Sendern, die nie darüber berichtet hatten.

Warum halluziniert KI?

Die Halluzinationen werden durch verschiedene Aspekte begünstigt:

  • KI-Modelle möchten uns immer eine Antwort liefern, die uns gefällt und die am wahrscheinlichsten richtig ist. Diese Prägung führt dazu, dass KI-Modelle sich lieber etwas ausdenken, als den Nutzern mitzuteilen, dass sie keine richtige Antwort geben kann.

  • Vor allem die Daten, mit denen die KI trainiert wurde, sind für Halluzinationen ausschlaggebend. Wenn die Trainingsdaten ungenau, veraltet, nicht umfangreich genug oder sogar durch Vorurteile oder Einseitigkeit verzerrt sind, kann das die Darstellung der Realität beeinflussen.

  • Weiter halluziniert KI, „wenn relevante Fakten in einer großen Datenmenge versteckt sind“. Dem Modell fällt es in diesem Szenario schwer, die wichtigen Informationen herauszulösen und zu nutzen.

  • Auch die Eigenschaft der KI-Modelle in Korrelationen zu „denken“. Sie betrachtet Zusammenhänge, anstatt Ursache-Wirkungsszenarien mit einzukalkulieren. Wenn die Informationen für die KI zu weit voneinander entfernt sind, kommt es zu Problemen oder Missverständnissen bei der Erarbeitung der Antworten.

Beispiele aus der Praxis

Ein eindringliches Beispiel bildet dabei der Fall, bei dem Microsoft Copilot aus einem Tübinger Journalisten einen Kinderschänder und Psychiatrieausbrecher machte. Der Journalist berichtet nur über die Sachverhalte. Die KI hatte dies wohl nicht ganz überrissen und verknüpfte das Wissen auf komplett falsche Weise. Das Gleiche geschah durch eine Halluzination des KI-Modells Google Gemma, als dieses Kriminalgeschichten über eine US-Senatorin erfand.

Anhand solcher Beispiele lässt sich leider sehr gut antizipieren, welches Risiko Halluzinationen mit sich bringen, wenn Menschen die falsch generierten Informationen als wahr ansehen.

Können Halluzinationen minimiert oder sogar komplett entfernt werden?

„Jein”. Bis jetzt gibt es keine hundertprozentige Lösung um KI vom Halluzinieren zu heilen. Diese „sind mathematisch unvermeidbar.“

Dennoch bestehen Maßnahmen, um den Auswirkungen entgegenzuwirken:

  1. Abgleich mit Datenbanken: Das hilft, falsche Informationen vor der Veröffentlichung abzuschöpfen und zu korrigieren.

  2. Der KI Vorgaben zur Richtigkeit der Ergebnisse machen: Anfragen wie „Gib mir auf meine Frage nur eine Antwort, wenn du mit einer Sicherheit von mehr als 80 Prozent sagen kannst, dass deine Antwort richtig ist“ soll die KI in der Lage sein, über ihre Unsicherheiten zu berichten.

  3. Um Retrieval Augmented Generation (RAG) ergänzen: Hierbei wird die Eingabe des Nutzers mit Wissen aus Datenbanken und verbundenen Quellen angereichert, bevor es dann gebündelt dem LLM für die Texterstellung und das Ergebnis zugespielt wird. Das RAG hilft dem KI-Modell, Halluzinationen zu vermeiden, da das genutzte Wissen aus einer Datenbank kommt und nicht durch mögliche Halluzinationen zusammengewürfelt wird.

Handlungsempfehlungen und Fazit:

  • Prüfen Sie KI-Ergebnisse kritisch. Hinterfragen Sie Aussagen und ziehen Sie Kolleginnen und Kollegen bei Unsicherheiten hinzu.

  • Sensibilisieren Sie Ihre Mitarbeitenden. Verständnis für die Funktionsweise von KI schützt vor Fehlnutzung – und damit vor Risiken für Unternehmen, Daten und Glaubwürdigkeit.

Die Zukunft der KI hängt nicht nur von Algorithmen und Daten ab, sondern von unserem Bewusstsein, sie mit Verstand, Ethik und Augenmaß einzusetzen. Zwischen Täuschung und Erkenntnis entscheidet letztlich nicht die Maschine – sondern wir.

 

Autor: Markus Vatter, Head of Compliance, 19.11.2025

Hier erfahren Sie mehr.

Ich berate Sie gerne und freue mich auf Ihre Fragen.

Head of Compliance

Markus Vatter