Darum geht’s:
- KI-Programme erleichtern die Erstellung von Bild-, Video- oder Audiomaterial. Das Material wird immer realistischer.
- Dennoch gibt es einige Techniken, wie man solches KI-Material identifizieren kann.
- Dazu gehören die Suche nach der Originalquelle oder logisches Denken.
„Ist das wirklich so passiert oder ist das KI?“ Diese Frage erreicht uns beim #Faktenfuchs immer häufiger, seitdem es frei zugängliche Programme gibt, mit denen jeder KI-Inhalte generieren kann.
Es stimmt: Die technischen Entwicklungen im KI-Bereich in den vergangenen Jahren waren rasant. Doch wenn Bilder, Videos oder Audios täuschend echt aussehen oder klingen – auf was kann man sich dann noch verlassen?
- Hier finden Sie #Faktenfuchs-Artikel zum Erkennen von Falschinformationen.
Die gute Nachricht ist: Es gibt einfache Techniken, die dabei helfen können, KI-Material als solches zu identifizieren, damit sicher umzugehen oder zumindest die Seriosität des Materials gut einzuschätzen. Anlässlich des Internationalen Fact-Checking-Tags am 02. April können Sie in diesem #Faktenfuchs einige davon nachlesen.
Tipp 1: Ignorieren ist erlaubt – nicht jeder Inhalt ist wichtig
Der erste Tipp klingt zwar banal, kann aber wirksam sein: Sie müssen nicht jeden Inhalt bewerten, sondern können manche Dinge schlicht ignorieren. Falls Sie ein Bild sehen, das Ihnen KI-generiert erscheint, dann könnten Sie sich fragen: Ist das wichtig für mich persönlich? Will jemand unbedingt meine Aufmerksamkeit? Sollte ich meine Lebenszeit dafür aufwenden? Oder lese ich beispielsweise lieber in meinem Buch weiter?
Die Philosophin Anastasia Kozyreva von der Max-Planck-Gesellschaft forscht zu Falschinformationen und empfiehlt ein solches „Kritisches Ignorieren“ ‚(externer Link). Sie sagt: „Ohne die Fähigkeit, bewusst zu entscheiden, was wir im Netz ignorieren und wohin wir unsere Aufmerksamkeit lenken, lassen wir zu, dass andere die Kontrolle über unsere Augen und unseren Verstand übernehmen.“
Tipp 2: Lassen Sie sich Zeit
Auch der zweite Tipp hat nichts mit ausgefeilten Recherchefähigkeiten oder technischen Hilfsmitteln zu tun. Falls Sie Inhalten begegnen, die Ihnen KI-generiert erscheinen, die Sie aufwühlen, wütend werden lassen oder bei denen Sie sich denken „Das kann doch nicht wahr sein!?“: Einmal tief durchatmen und Zeit nehmen. Falsch- und Desinformationen knüpfen oft an polarisierende und emotionale Themen an.
Wer Falschinformationen verbreitet, will skandalisieren und setzt darauf, dass Menschen die Inhalte weiterleiten, ohne viel zu überlegen. Halten Sie daher inne, bis Sie für sich selbst folgende Fragen beantwortet haben: Was ist die Aussage des Inhalts? Wer verbreitet den Inhalt? Steht dahinter eine Interessengruppe? Gibt es dafür Belege?
Außerdem können Sie auf folgenden nachgewiesenen psychologischen Effekt achten: Haben Sie zu einem gewissen Thema bereits eine starke Meinung, glauben Sie mit höherer Wahrscheinlichkeit auch Falschinformationen, die Ihre Haltung bestätigt. Die Rolle des sogenannten „confirmation bias„(externer Link), des Bestätigungsfehlers (externer Link), zeigen Studien (externer Link).
Tipp 3: Menschenverstand schlägt Tools
Der dritte Tipp betrifft eine weitere Frage, die uns immer wieder gestellt wird: Gibt es denn kein Programm oder Internet-Werkzeug, das für mich erkennt, ob etwas echt ist? Die Antwort darauf lautet leider: Nein, es gibt noch keine Programme, die durchweg zuverlässig ausspucken: „Dieses Foto ist mit einem KI-Tool bearbeitet.“
Fact-Checking-Journalisten benutzen manchmal solche Tools, deren Ergebnisse sind allerdings nur ein Indiz unter mehreren. Die endgültige Bewertung muss am Ende immer noch der Mensch treffen.
Bei unklaren Inhalten sollten Sie deswegen den gesunden Menschenverstand einsetzen und sich fragen: Ergibt das eigentlich Sinn oder ist das wahrscheinlich? Kann dieses Ereignis, wie es das Bild, Video oder Audio beschreibt, wirklich passiert sein?
Josef Holnburger, Geschäftsführer des Think-Tanks „Center für Monitoring, Analyse und Strategie“ (CeMAS), beschäftigt sich mit Fälschungen, Falsch- und Desinformation und sagt: „Ich glaube, da ist ein Mensch immer noch besser als KI-Modelle, weil Sinn ergreifen können sie alle noch nicht. Und es ist auch nicht erwartbar oder noch nicht absehbar, dass sie das jemals könnten.“
Tipp 4: „Seitwärts-Lesen“ hilft bei brisanten Themen
Starten Sie deshalb, wenn Sie sich nicht sicher sind, ob etwas echt ist, zuerst eine eigene, kurze Recherche. Dieses „Seitwärts-Lesen“ (externer Link) empfiehlt die Philosophin Anastasia Kozyreva. Bei brisanten Themen oder angeblichen Skandalen: Suchen Sie bei seriösen Quellen wie etwa den großen deutschen Medien nach Berichterstattung. Finden Sie keine weitere seriöse Quelle für eine Behauptung? Dann ist das ein Indiz für eine zweifelhafte Information.
Mit diesen vier grundsätzlichen Hinweisen ausgestattet, können Sie sich nun im Verlauf des weiteren Texts einige Beispiele anschauen. Jedes dieser Beispiele wurde mit KI generiert oder manipuliert und zu allen hat der #Faktenfuchs recherchiert. Anhand dieser Inhalte geben wir Ihnen Tipps dafür, wie man KI-Material identifizieren kann. Die vollständigen Faktenchecks verlinken wir im Text.
Beispiel 1: Originalquelle eines KI-Videos mit Bilderrückwärtssuche finden
Ende November 2024 teilte der SPD-Bundestagsabgeordnete Bengt Bergt ein Video, das den damaligen CDU-Kanzlerkandidaten Friedrich Merz zeigte. Bergt löschte das Video nach einigen Stunden wieder aus seiner Instagram-Story.
Wenn Sie die ersten Sekunden des Videos anschauen, nehmen Sie sich wie gesagt erst einmal Zeit. Was sagt Friedrich Merz in dem Video? Ist das realistisch, dass Friedrich Merz so etwas sagen würde? Und wer verbreitet das Video? Was kann ich noch darin sehen, was mir bei der Einstufung hilft?