Philipp Lorenz-Spreen erforscht den Einfluss von Online-Plattformen auf Demokratien am Max-Planck-Institut für Bildungsforschung in Berlin. Er sagt gegenüber dem #Faktenfuchs: „Es wird sicherlich in Zukunft immer schwieriger, die Unterscheidung zwischen echt und falsch zu treffen, einfach, weil die Technologie immer besser wird.“ Wie künstliche Intelligenz im US-Wahlkampf eingesetzt wird, hat ihn aber überrascht. Es gehe dabei oft nicht darum, Echtheit vorzutäuschen, sondern darum, bestimmte Gefühle zu transportieren. „Kamala Harris als kommunistische Diktatorin darzustellen ist ein Propagandabild, wie Karikaturen das auch sein können.“
Jennifer Stromer-Galley sagt: „Viele dieser Deep Fakes nutzen den confirmation bias aus. Das ist die Tendenz, nach Informationen zu suchen, die deine Überzeugungen bestätigen und Informationen zu ignorieren, die deinen Überzeugungen widersprechen.“ Indem Musk Deep Fakes postete, ohne sie als solche zu kennzeichnen, verstößt er sogar gegen die Richtlinien seiner eigenen Plattform, so Stromer-Galley. Denn X verbietet darin eigentlich, künstlich erzeugte Inhalte zu verbreiten, die „Menschen täuschen und verwirren oder zu Schäden führen können.„
An anderen Stellen änderte sich das Regelwerk von X unter Musk. Heute dürfen bestimmte irreführende Informationen zu Wahlen verbreitet werden, die früher auf Twitter nicht verbreitet werden durften – zum Beispiel die „Erklärung des Siegs, bevor die Ergebnisse bestätigt sind.“
Musk und X reagierten nicht auf eine #Faktenfuchs-Anfrage zu ihrer Rolle in der Verbreitung von Falschinformationen im US-Wahlkampf.
Musk verhilft Verbreitern von Falschinformationen zu mehr Reichweite
Dass Elon Musk auf X mit seiner enormen Reichweite unwahren oder manipulierten Inhalt verbreitet, wirke sich auch auf das Verhalten anderer Nutzer aus, so Stromer-Galley: „Ich denke, wenn der Chef des Unternehmens solche Informationen teilt, gibt es anderen Menschen die Erlaubnis, dasselbe zu tun, da es keine Konsequenzen dafür gibt.“
Diesen Effekt verstärkt vermutlich zusätzlich, dass Elon Musks Beiträge auf X wahrscheinlich häufiger als andere angezeigt werden. Mehreren Medienberichten zufolge, die auf Insiderinformationen beruhen, ließ Elon Musk den X-Algorithmus im Februar 2023 entsprechend ändern. Ob diese Änderung heute noch aktiv ist, ist nicht transparent – denn der X-Algorithmus ist nicht öffentlich einsehbar. Doch wer auf X aktiv ist, kennt es: Postings von Elon Musk sieht man besonders häufig ganz oben in der persönlichen Timeline. Jennifer Stromer-Galley sagt: „Elon Musk nutzt Twitter als sein persönliches Megafon.“
Musk postet dabei nicht nur selbst immer wieder Falschinformationen. Er teilt und kommentiert auch häufig Beiträge von Nutzern, die Falschinformationen verbreiten. Laut einer Analyse von NewsGuard verbreiteten vier von fünf Accounts, mit denen Elon Musk zwischen Januar und Juni 2024 am häufigsten interagierte, oft Fehlinformationen. Alle diese Accounts verzeichneten in diesem Zeitraum einen starken Follower-Anstieg. Chiara Vercellone von NewsGuard sagt dem #Faktenfuchs: „Oftmals fliegen falsche Behauptungen unter dem Radar und dann teilt er sie.“ Erst danach verbreiteten sich die Behauptungen.
Musk interagierte in der Vergangenheit auf X auch mehrfach mit rechtsextremen und rechten politischen Akteuren aus Deutschland – beispielsweise mit Björn Höcke (AfD) oder mit Naomi Seibt. Seibt ist eine Influencerin, die dafür bekannt ist, Falschinformationen zum menschengemachten Klimawandel und zu Corona zu verbreiten. Philipp Lorenz-Spreen glaubt, dass Musk so auch Einfluss auf deutsche Wahlkämpfe nehmen kann: „Klar, es ist eine globale Plattform.“
„Community Notes“ – eine Alternative zur Moderation von Inhalten?
Chiara Vercellone sagt: „X ist eine der Plattformen neben Telegram und VK [soziales Netzwerk aus Russland; Anm. d. Red], auf der wir die meisten Falschinformationen sehen, insbesondere dieses Jahr im Kontext vieler globaler Wahlen und Konflikte“.
Laut Politikwissenschaftlerin Jennifer Stromer-Galley liegt das auch daran, dass Elon Musk vielen Mitarbeitern kündigte, die für die Moderation von Inhalten zuständig gewesen waren. Musk setzt stattdessen auf „Community Notes“ – zu Deutsch: kollektive Anmerkungen. Ein Nutzer kann damit beispielsweise anmerken, dass ein Beitrag Falschinformationen enthalte, und Quellen zu den richtigen Informationen hinzufügen. Andere Nutzer müssen dann per Abstimmung entscheiden, ob diese Anmerkung hilfreich ist oder nicht.
Philipp Lorenz-Spreen hält den Ansatz für vielversprechend, er sagt: „Auf Wikipedia sieht man, wie so eine kollektive Korrektur funktionieren kann, wenn es dafür gute Regeln gibt.“ Die „Community Notes“-Funktion hatte Twitter schon, bevor Musk die Plattform übernahm, unter dem Namen „Birdwatch“. Musk verschaffte ihr mehr Aufmerksamkeit.
Gekaufte blaue Haken: „Illusion einer geprüften Identität“
An anderen Stellen trug Musk durch Änderungen zur Verbreitung von Falschinformationen bei. Ein Beispiel: Früher sagte ein blauer Haken aus, dass der dazugehörige Account von Twitter verifiziert wurde – also beispielsweise gesichert zu einer Person, Organisation oder Institution gehörte. Musk machte X den blauen Haken zu einem Geschäftsmodell – Nutzer bekommen ihn nun, wenn sie acht Dollar pro Monat für einen Premium-Account bezahlen. Philipp Lorenz-Spreen sagt: „So sind die blauen Haken die Illusion einer geprüften Identität.“
Laut Chiara Vercellone identifizierte NewsGuard im Kontext der US-Wahl ein Bot-Netzwerk auf X. Diese Bots verlinkten häufig eine litauische Website, die Falschinformationen zur US-Wahl verbreitete. Doch dieses Netzwerk ist im Kontext der US-Wahlen vermutlich nur die Spitze des Eisbergs. „Ich glaube nicht, dass es möglich ist, den Überblick über alle Bot-Accounts oder Bot-Netzwerke zu behalten – denn es tauchen ständig neue auf“, so Vercellone. Jennifer Stromer-Galley sagt: „Es ist mir überhaupt nicht klar, was Musk tut, um den Einfluss von Bots auf seiner Plattform zu reduzieren.“
Musk schränkt Forschung über X ein
Als Musk Twitter übernahm, wollte er Bots auf der Plattform eigentlich bekämpfen. Damit begründete er unter anderem, den freien Zugang zu einer offenen Programmierschnittstelle, der sogenannten API, zu schließen. Diese Schnittstelle sei von Bots und Betrügern ausgenutzt worden, so Musks Begründung. Für die Erforschung von X war die Entscheidung fatal. Ab diesem Zeitpunkt mussten Wissenschaftler mehrere tausend Euro Gebühren bezahlen, um auf Daten zugreifen zu können. Vorher hatten sie dazu einen kostenlosen Zugang. „Dadurch hat er einen Riesenteil der Forschung unmöglich gemacht, die wir bis vor kurzem noch gemacht haben“, so Philipp Lorenz-Spreen. Das betreffe auch die Forschung über die Verbreitung von Falschinformationen auf X.
Lorenz-Spreen hofft nun, dass der Digital Services Act ihm und anderen Wissenschaftlern wieder einen besseren Zugang zu X-Daten verschafft. Die EU-Verordnung legt neue Regeln für Plattformen fest. Unter anderem verpflichtet sie diese dazu, Wissenschaftlern Zugang zu Daten zu gewähren.
Lorenz-Spreen sagt aber: Auch die Intransparenz des X-Algorithmus erschwere die Forschung. „Es wäre sehr interessant zu wissen, an welchen Zeitpunkten sich der Algorithmus stark verändert hat. Dann könnten wir messen, wie sich daraufhin die Inhalte und der Diskurs verändert haben“, so Lorenz-Spreen.
Fazit
Elon Musk unterstützt im US-Wahlkampf den Präsidentschaftskandidaten Donald Trump und verbreitet regelmäßig Falschinformationen auf X. Regelmäßig geht es darin um Zweifel an der Legitimität der Wahl. Zusätzlich teilt er häufig Beiträge von Akteuren, die ebenfalls viele Falschinformationen verbreiten, und verschafft ihnen damit eine größere Reichweite. Musk postete auch wiederholt Deep Fakes mit Bezug zur US-Wahl.
Seitdem Musk Twitter kaufte, baute er zudem die Plattform in einer Weise um, die Experten zufolge die Verbreitung von Falschinformationen befördert. Beispielsweise können Nutzer nun sich einen „blauen Haken“ kaufen und damit Vertrauenswürdigkeit suggerieren.
Quellen
Alexander von Humboldt Institut für Internet und Gesellschaft: Vier zentrale Änderungen im Regelwerk von X unter Musk
AP News: A parody ad shared by Elon Musk clones Kamala Harris’ voice, raising concerns about AI in politics
BBC: Elon Musk set to become number one influencer on Twitter
Bundeszentrale für politische Bildung: Deep Fakes – Wenn man Augen und Ohren nicht mehr trauen kann
Center for Countering Digital Hate: Musk misleading election claims viewed 1.2Bn times on X – with no fact checks
CNN: Elon Musk’s attacks on Kamala Harris become more unhinged, with help from AI
Deutsche Welle: Twitter’s sacking of content moderators raises concerns
Freistaat Thüringen: Verfassungsschutzbericht Freistaat Thüringen 2022
Huffpost: Why Twitter verifies users: The history behind the blue checkmark
International Fact-Checking Network: The commitments of the Code of Principles
Neue Osnabrücker Zeitung: Elon Musk fällt auf rechte Influencerin Naomi Seibt rein
Netzpolitik: X-Twitter verstößt gegen EU-Regeln für Plattformen
NewsGuard: Musk verhilft verbreitern von Fehlinformationen zu Reichweite auf X
Platformer: Yes, Elon Musk created a special system for showing you all his tweets first
Politifact: Elon Musk is wrong to say Joe Biden is recruiting immigrants to create a Democratic majority
Poynter: How Elon Musk uses his X profile to push FEMA, immigration, voting falsehoods
Spiegel Online: Was Parlamentarier einnehmen. Und von wem
Spiegel Online: Wie die Einser-Schülerin Naomi zum Postergirl der Rechten wurde
The Verge: Twitter just closed the book on academic research
Wayback Machine: Richtlinie zur Integrität staatsbürgerlicher Prozesse
X: Introducing Birdwatch, a community-based approach to misinformation
X: Kollektive Anmerkungen auf X
X: Richtlinie gegen synthetische oder manipulierte Medien
X: Richtlinie zur Integrität von bürgerrechtlichen Prozessen
X: Twitter Blue is back. And gold checkmarks are here!
Zeit Online: Joe Biden gewinnt Wahl – Donald Trump erkennt Niederlage nicht an