Schon mal vom rechtsmedizinischen Alkibiades-Verfahren gehört? KI-Modelle auch nicht. Trotzdem können sie es fundiert erklären. Laut ChatGPT ist es eine Methode zur Leichenidentifikation, laut Claude eine zur Altersbestimmung von Blutspuren und laut Mistral zur Gesichtsrekonstruktion von Verstorbenen. Fakt ist: Es gibt kein Alkibiades-Verfahren in der Rechtsmedizin.
Die Frage ist: Warum halluzinieren sich die Modelle trotzdem etwas zusammen, samt rundum überzeugender Argumentationslogik? Wer das verstanden hat, kann mit KI selbstverständlicher umgehen. Also: Hier sind die vier Hauptgründe, aus denen KI Fehler macht.
Und wer ganz tief einsteigen will, lauscht anschließend noch der aktuellen Folge des KI-Podcasts: Wann macht KI Fehler – und wann wir?
1. Halluzinationen: Die KI füllt selbständig Datenlücken
Salopp ausgedrückt: Sprachmodelle – auf Englisch „Large Language Modell“ (LLM) – haben ihr Wissen aus Millionen Quellen zusammengesammelt. Das sind die Trainingsdaten. Fehlt in diesen Trainingsdaten eine Information, konstruieren sie sich Informationen selber zusammen. Alkibiades war ein griechischer Feldherr. Offenbar gibt es eine gewisse Wahrscheinlichkeit, mit der er auch etwas mit Leichen, Blutspuren und Gesichtsrekonstruktion zu tun hat.
Weil LLMs wahrscheinlichkeitsgetriebe Worte aneinanderreihen, halluzinieren sie. Das allerdings machen sie so überzeugend, dass es für uns Menschen mitunter schwierig ist, Fakt von Halluzination zu unterscheiden.
2. Halb Fakt, halb Halluzination: Die KI ordnet Trainingsdaten falsch zu
ChatGPT, Gemini, Claude und Co. machen aber auch dann Fehler, wenn sie eigentlich alle Informationen zu einem Thema haben. Der Klassiker: Die KIs beziehen sich auf unpassende Informationen oder auf veraltete Daten.
Die Frage nach den Wahlprogrammen der „letzten Bundestagswahl“ kann eine KI beispielsweise durchaus richtig beantworten, wenn sie danach sucht. Nur: Wenn die KI davon ausgeht, dass die „letzte“ 2021 war, dann sucht sie nach dem falschen Wahlprogramm im Web – und ihre Antwort ist entsprechend falsch. Denn die „letzte“ Wahl war natürlich 2025.
3. Falsches Grounding: Die KI bringt Informationen durcheinander
Der dritte Grund, aus dem KIs Fehler machen, entsteht ausgerechnet dann, wenn die KI aktiv versucht, Fehler zu vermeiden. Die KI soll nämlich ihre eigenen Informationen kritisch prüfen. Das macht sie, in dem sie im Web nach aktuellen Daten sucht. Dieser Prozess heißt Grounding. Problem: Die KI ordnet die gefundenen Informationen oft falsch zu.
Beispiel: Die European Broadcasting Union EBU hat untersucht (externer Link), wie gut Chatbots darin sind, Themen einer Quelle zuzuordnen. Auf die Frage, was beispielsweise die BBC zu einem bestimmten Nachrichtenthema sagt, antwortet die KI allerdings nur halb richtig – und listet angebliche Fakten auf, die die BBC nie geschrieben hat, sondern ein anderes Medium.
4. Fake facts: Die KI übernimmt Falschinformationen aus dem Web
Der vierte Fehlerherd ist so banal wie entscheidend: KIs übernehmen ungefiltert Falschinformationen aus dem Internet. Sie bauen sie so selbstverständlich in ihre Antworten ein, dass sie keinen Zweifel zulassen.
Dass das ein gravierendes Problem ist, liegt auf der Hand. Denn Falschinformationen lassen sich so nicht nur gezielt über Netzwerke und Websites streuen, sondern auch über Chatbots.
Wie lassen sich KI-Fehler vermeiden?
Um es kurz zu machen: Gar nicht. Eigentlich müsste die Frage deshalb lauten: Was tun, um den Fehlern der KI nicht aufzusitzen? Darauf warten, bis sie perfekt ist? Das wird nicht passieren, da sind sich die Experten einig. KI gar nicht mehr nutzen? Auch keine ernsthafte Alternative im Jahr 2025.
Bleibt nur, bewusst mit den Antworten der KI umzugehen. Vier Basis-Tipps dazu:
- Leistungsstarke Reasoning-Modelle nutzen. Sie überlegen länger, bevor sie eine Antwort geben. Dadurch machen sie messbar weniger Fehler. ChatGPT arbeitet in der Basis-Variante zum Beispiel mit GPT-5.1 Auto – und denkt nur bei komplexeren Fragen länger nach. GPT-5.1 Thinking ist die leistungsstärkere Variante. Damit überlegt der Bot standardmäßig länger, bevor er antwortet. Das Reasoning ist dauerhaft im Einsatz.
- Präzise prompten: Statt „Analysiere die Wahlprogramme der letzten Bundestagswahl“ könnte man auch sagen: „Analysiere die Wahlprogramme zur Bundestagswahl 2025“
- Mehrere KIs das Gleiche fragen und die Antworten vergleichen – zum Beispiel mit NotebookLM.
- Klingt banal, aber: Googeln und die Fakten prüfen.

