Manche KI-Fakes mit Satire erreichen große Reichweite
Ein Account zum Beispiel, der den Begriff „Satire“ im Namen trägt, verbreitet auf X regelmäßig KI-Bilder oder Videos, die den SPD-Gesundheitsminister Karl Lauterbach imitieren – aber auch Posts mit Falschinformationen, die sich gegen Menschen mit Migrationshintergrund richten. Eines der KI-generierten Bilder von Lauterbach zeigt ihn vor einer gefüllten Halle mit AfD-Logos im Hintergrund, begleitet von der erfundenen Ich-Botschaft des SPD-Politikers, er habe sich für die vielen Opfer der Corona-Impfungen entschuldigt und werde künftig die AfD unterstützen. Der Post wurde laut X 1,3 Millionen Mal angezeigt. Beschleunigt wurde die Verbreitung des Posts auch davon, dass die AfD-Kanzlerkandidatin Alice Weidel ihn retweetete und Lauterbachs echten X-Account erwähnte.
Satire-Accounts verwirren mit KI-Fakes
Das KI-Bild von Lauterbach ist für ungeübte Nutzer nicht einfach als künstlich erstellt zu erkennen. Rechts unten ist das Symbol von „Grok AI“ zu sehen, einem in X integrierten KI-Tool, das auch Bilder generieren kann. Dadurch ist das Bild zwar einerseits als KI-generiert gekennzeichnet. Andererseits fällt das Logo von Grok nicht direkt auf – und man muss erstmal wissen, was das Programm überhaupt ist.
KI-Fakes können bekannte Persönlichkeiten „mit einer Genauigkeit und einem Realismus, der vorher kaum machbar war“, imitieren, sagt Maria Pawelec. Die Politikwissenschaftlerin und Expertin für Deepfakes und Desinformation forscht am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) an der Eberhard Karls Universität Tübingen. Denn KI-Tools sind inzwischen auch für Laien zugänglich und die Qualität der Ergebnisse hat zugenommen. „Und die Technologie ist eine Möglichkeit, neuartige Inhalte zu generieren, die vielleicht – noch – ein Überraschungsmoment haben.“
Missverständliche Satire: ähnliche Wirkung wie Desinformation
Wenn Nutzer tatsächlich der Täuschung unterliegen, sieht Pawelec einige Faktoren im Zusammenspiel: Eine Rolle spielten die Flüchtigkeit beim Konsum der Medien, ein mangelnder kritischer Umgang mit Medien – aber auch der „Confirmation Bias“, wie die Expertin in einer Mail an den #Faktenfuchs schreibt: Der „Confirmation Bias“ beschreibt die Neigung von Menschen, tendenziell eher das zu glauben, was ihre eigenen Überzeugungen bestätigt. Konkret auf KI-Satire bezogen bedeutet das: Bestimmte Voreinstellungen oder Vorurteile werden durch die KI-Bilder bestätigt – und in wessen Weltbild sie passen, der hält sie leichter für wahr.
Die Kommentare unter dem KI-Lauterbach-Beitrag zeigen, dass einige User tatsächlich nicht erkannten, dass das Bild ein Fake ist. „Man weiß oft genug nicht mehr was wahr ist und was nicht ….wenn er das gesagt hat soll er auch zumindest zurück treten“, schrieb eine Userin. „Sieh mal einer an Karlchen Lauterbach, sie haben Menschenleben auf dem Gewissen und gehören eingesperrt“, schrieb ein User, und ein weiterer: „Will er jetzt seinen Kopf aus der Schlinge ziehen“.
Ein weiterer X-Account verbreitet – unter dem Hinweis „Parodie“ in der Beschreibung – häufig KI-Fakes von Bundespräsident Frank-Walter Steinmeier. Etwa wie der vermeintliche Steinmeier auf einer Straße sitzt und damit gegen die AfD in Riesa demonstriert habe. Und auch unter diesem KI-Fake zeigen die Kommentare, dass einige User das Bild für echt halten.
Eine erste Orientierung für Nutzer, um zwischen Satire und Falschinformation zu unterscheiden, kann Experten zufolge also sein: „Satire wirkt immer dann wie eine Falschinformation, wenn sie falsch verstanden wird, also wenn sie fälschlicherweise als echt wahrgenommen wird“, sagt Pawelec. Ähnlich halten es auch Faktencheck-Redaktionen wie LeadStories aus den USA. Die Journalisten dort prüfen Fälle von Satire im Rahmen eines Faktenchecks, wenn die Redaktion den Eindruck gewinnt, dass eine gewisse Zahl an Menschen die Satire für wahr hält – etwa anhand der Kommentare.
KI-Fakes und die oft zugehörige Text-Botschaft können also von einigen als authentische Nachricht aufgefasst werden. Das zeige eine zentrale Gefahr von satirischen KI-Bildern auf – nämlich „dass sie manipulierend oder desinformierend wirken können“, sagt Pawelec. „Wenn die Menschen empört reagieren, weil sie die Inhalte für wahr halten, dann reagieren sie nicht auf das Satirische“, sagt Pawelec.
„Satire“ dient bisweilen als Feigenblatt
Wenn unter einem satirischen Beitrag sehr viel Wut in den Kommentaren zu lesen ist, könne auch ein Hinweis sein darauf, dass der Hinweis „Satire“ als Feigenblatt verwendet wird: „Wenn die Empörung einkalkuliert ist, die Wut, die dann dank der Algorithmen für eine stärkere Verbreitung sorgt, dann kann das ein Hinweis sein, dass die eigentliche Intention ist, aus ökonomischen oder politischen Motiven Desinformation zu verbreiten.“ Das geht nicht nur zum Beispiel mit Deepfakes (also vor allem KI-Videos), sondern auch mit sogenannten Shallow-Fakes oder Cheap Fakes. Sie sind in der Regel mit einfachen Mitteln hergestellt: etwa wird die Tonspur eines Videos verlangsamt, um jemanden wie betrunken klingen zu lassen.
Pawelec hält die wirtschaftlichen Interessen der Plattformen für einen wichtigen Aspekt, denn „negative, sensationelle, emotionalisierende Inhalte erhalten mehr Interaktionen und werden daher tendenziell von den Algorithmen der Plattformen gepusht“, schreibt Pawelec.
KI-Memes: Lustig – und manchmal auch im Dienst der Desinformation
Manche KI-Fakes verbreiten sich auch als Memes weiter – ebenso mit Hilfe der Algorithmen. Memes sind ein popkulturelles Internetphänomen, bei dem Bilder, Videoausschnitte oder Texte witzig oder sarkastisch aufgegriffen werden, häufig auf andere Themen übertragen werden und sich schnell verbreiten. Sie können aber auch für Hass und Desinformation eingesetzt werden. Auch im US-Wahlkampf verschaffte das „Satire“-Label den Verbreitern täuschender Posts eine gewisse Immunität vor rechtlichen Konsequenzen, schreiben die Autorinnen eines Artikels der Brookings Denkfabrik aus den USA.
Ein Beispiel für KI-Memes im Wahlkampf, das die Brookings-Autorinnen nennen: In einem ursprünglich als „Parodie“ gelabelten Video von Kamala Harris, das durch KI manipuliert worden war, nennt sie sich selbst eine „Deep State Marionette“ und bestätigt so vermeintlich eine Verschwörungstheorie. Trump-Unterstützer wie Musk verbreiteten das Video weiter.
Manche Memes sollen aber den Autorinnen zufolge nicht unbedingt davon überzeugen, dass der Inhalt wahr ist. Sondern provozieren. Diese Methode nennt man „rage-baiting“.
Wie erkenne ich, ob jemand Satire macht – oder andere Ziele hat?
Für die Nutzer bedeutet die Analyse von möglichen Satire-Accounts eine Last, betont Pawelec. Doch wer Hinweise darauf sucht, ob ein Account Satire vielleicht nur als Deckmantel für Desinformation oder „rage baiting“ benutzt, kann zum Beispiel darauf achten, wie sich die Posts eines Accounts über die Zeit entwickeln.
„Hier muss man zwischen Absicht und Folgen unterscheiden“, sagt Judith Simon im Gespräch mit dem #Faktenfuchs. Sie ist Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. Simon ist außerdem stellvertretende Vorsitzende des Deutschen Ethikrates und war dort Sprecherin der Arbeitsgruppe „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“. „Dass es jemand falsch verstehen kann, kann nicht dazu führen, dass wir Satire verbieten“, sagt Simon. Aber wenn man als Nutzer bemerke, dass die ‘Satire’ häufig nicht als solche erkannt wird oder die KI-Fakes als echt missverstanden werden, der Urheber seine Praxis aber nicht verändere, könne man die Frage stellen: „Was nimmt der Account-Betreiber billigend in Kauf?“
Ob der Einzelfall von Satire, der geprüft wird, dann aber auch Desinformation ist – also falsche Information, die wissentlich und in der Absicht gestreut wird, zu schaden – das hänge von der Intention der Herstellenden und Verbreitenden ab, sagte Pawelec. „Und diese Intention eindeutig zu erkennen, ist fast unmöglich. Außer wir würden die befragen und die würden uns ehrlich antworten.“
Was verrät der Kontext auf Satire-Accounts?
Dennoch können die verschiedenen Posts eines Accounts weitere Hinweise geben auf die Absichten hinter KI-Fakes. Bei dem Account, der viele Lauterbach-Fakes postet, sind zwischen die KI-Satire-Posts auch solche gestreut, die nicht synthetisch erstellt sind – und die Falschinformationen verbreiten. Zum Beispiel ein Screenshot von einer irreführenden Statistik zum Bürgergeld: Die Grafik, die über diverse Kanäle verbreitet wurde, arbeitet zwar mit korrekten Zahlen – lässt aber einen maßgeblichen Balken aus, wie dieser Faktencheck von Correctiv zeigt.