Darum geht’s:
- KI-Chatbots können Informationen erfinden oder eine falsche Aussage bestätigen.
- Wollen Sie einen KI-Chatbot um Hilfe beim Faktencheck bitten? Dann prüfen Sie zuerst Ihr eigenes Wissen. Das ist wichtig, um die KI-Antwort einzuordnen.
- Es kann helfen, die Prompts und den Chatverlauf zu hinterfragen: Läuft hier gerade alles richtig?
Wer einen Faktencheck sucht, will eine gut belegte Antwort bekommen. Sie soll enthalten, was gesicherte Erkenntnisse sind und wo es Unsicherheiten oder Lücken gibt. Ein KI-Chatbot ist dafür bislang keine verlässliche Quelle – aber ein möglicher Assistent.
- Alle aktuellen #Faktenfuchs-Artikel finden Sie hier.
„Sprachmodelle sind auf Plausibilität und nicht auf Korrektheit ausgelegt – das verwechselt man leicht, und sie sind in der Plausibilität faszinierend gut“, sagt Stefan Voß, Head of Verification bei der Deutschen Presse-Agentur (dpa). „Aber das macht die Antwort nicht in jedem Fall korrekt.“ Zudem haben auch KI-Chatbots nicht alle Informationen und Daten zu jeder Frage.
- Warum KI-Chatbots fehleranfällig sind, erklärt dieser #Faktenfuchs.
Diese Tipps können helfen, KI-Chatbots bessere Fragen zu stellen – und die Antworten gut zu überprüfen:
Tipp 1: Eigenes Wissen hinterfragen
Man sollte die Modelle bestenfalls in Themenfeldern nutzen, in denen man sich selbst auskennt – „wo man sofort ein Bauchgefühl hat und sagen kann: ‚bei der Zahl ist ne 0 zu viel'“, sagt KI-Experte Marcel Weiß. „Man braucht Expertenwissen, um die Antworten einschätzen zu können.“
Im Alltag aber dürften Menschen sich vor allem dann einen Faktencheck wünschen, wenn sie das Expertenwissen zum fraglichen Thema nicht haben.
Auch ohne das nötige Expertenwissen helfen weitere Tipps, die Ergebnisse der KI-Chatbots besser einzuordnen.
Tipp 2: Auf Bestätigungsfehler achten – den eigenen und den des Chatbots
Faktenchecks werden regelmäßig genutzt, wenn eine Debatte politisch und emotional aufgeladen ist. Aufgeheizte Gefühle und die Vermischung von Fakten und Meinung machen den Umgang mit Chatbots schwierig.
Das bedeutet: „Der User muss schon bei seiner eigenen Frage unterscheiden können zwischen Meinung und Fakten“, sagt Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI)I. „Schafft er es, seine Frage faktisch zu formulieren – gerade, wenn Debatten sehr emotional geführt werden?“ Ergebnisoffene Recherche ist eine Grundvoraussetzung für Faktenchecks.
Das kann für User schwierig sein. „Im Kampf gegen Desinformation haben wir die Erfahrung gemacht, dass es offenbar immer mehr Leute gibt, die nicht mehr wissen wollen, sondern glauben: Sie suchen nach Bestätigung“, sagt Stefan Voß, Verifikations-Leiter bei der dpa. „KI-Chatbots werden dann nicht verwendet aus der Haltung heraus ‚Ich bin echt neugierig, ich würde gerne wissen, was hinter dem Thema steckt‘. Sondern die Prompts werden dann zum Beispiel eher lauten: ‚Findest du nicht auch, dass diese und jene Bevölkerungsgruppe dies und jenes häufiger tut‘.“
Burchardt rät deshalb zur kritischen Distanz. „Wie auch bei Social Media gilt: Die Sachen, die mir fast zu gut vorkommen, die mir Herzklopfen bereiten, die mir sagen: ‚Hab ich ja schon immer gewusst!‘, genau anschauen. Durchatmen. Sich selber beobachten und fragen, ob das wirklich sein kann.“ Voß formuliert es so: „Frage dich selbst: Möchte ich, dass ich in meinem Weltbild bestätigt werde, oder möchte ich etwas wissen?“
Tipp 3: Experimentieren
Dadurch, dass KI-Chatbots nur wahrscheinlich passende Sätze generieren, nicht aber unbedingt richtige, können sich Fehler einschleichen. Um einen realistischen Blick für die Plausibilität einerseits und die Fehleranfälligkeit andererseits zu bekommen, hilft Üben: Experimentieren an Beispielen, zu denen man selber Expertenwissen mitbringt – um zu erfahren, wo Fehler passieren, rät Vera Schmitt, Forschungsgruppenleiterin an der TU Berlin und Expertin für KI-Systeme und die Erkennung von Desinformation.
Tipp 4: Prompts überdenken und verbessern
„Niemals suggestive Prompts!“, warnt Stefan Voß von der dpa. Und generell gilt: Kluges Fragen kann sich lohnen.
Man kann das Modell auffordern, sich auf faktische Aussagen zu konzentrieren und sie mit Hilfe von externen Wissensquellen zu überprüfen. Dabei kommt es dann wiederum auf die Qualität der Quellen an – die der User immer noch einmal selbst überprüfen sollte.
Burchardt empfiehlt, auf die gesamte Unterhaltung kritisch zu blicken: „Noch mal aus der Vogelperspektive drauf zu gucken und zu fragen: Läuft hier eigentlich gerade alles richtig?“
Tipp 5: Quellen checken!
Falls Sie dem Modell die Anweisung gegeben haben, Ihnen Quellen zu liefern, oder der KI-Chatbot automatisch welche angibt: Überprüfen Sie diese Quellen selbst – und kritisch. Steht in den Quellen wirklich, was die KI behauptet? Sind die Quellen seriös? Sind sie aktuell?
Manche KI-Chatbots generieren ihre Antworten aus den Inhalten von Datenbanken, was die Ergebnisse verlässlicher machen kann. Einige Sprachmodelle wie Perplexity oder Consensus verlinken direkt in ihren Antworten Quellen – was helfen kann, ihre Angaben zu prüfen. Das aber sollte man immer tun.
Tipp 6: Kein Fatalismus!
Die Warnung vor Fehlern von KI-Chatbots – wie auch die vor Desinformation – berge eine Gefahr, sagt Stefan Voß: dass sich Fatalismus breit macht, der wiederum zu umfassendem Misstrauen oder empfundener Hilflosigkeit führt; dass sich die Überzeugung festsetzt, dass man nicht mehr erkennen könne, was stimmt.
„Das ist ein Dilemma“, so Voß. „Es gibt darauf keine schnelle Antwort. Aber menschlicher Spürsinn, Logik und genaues Hinschauen können helfen – und das dürfen wir nicht aufgeben.“
Fazit
KI-Chatbots können bei der Recherche behilflich sein. Doch sie sind nicht in jedem Fall verlässlich in ihren Antworten. Wenn man auf bestimmte Dinge achtet, kann man Fehler vermeiden oder entdecken. Wichtig ist: richtiges Prompten, das eigene Wissen zu hinterfragen und kritisch zu prüfen, ob gerade nur das eigene Weltbild bestätigt wird.