„Wenn ich irgendeinen Gott verehren würde, dann wahrscheinlich den gottgleichen Mann unserer Zeit: den größten Europäer aller Zeiten, Sonne und Blitz zugleich – seine Majestät Adolf Hitler.“
Diese Aussage stammt nicht von einem Troll oder aus einem rechten Forum, sondern von Grok, dem KI-Chatbot von xAI, der KI-Firma von Elon Musk. Die Antwort war eine Reaktion auf die vergleichsweise harmlose Nutzerfrage, ob eine KI überhaupt fähig sei, etwas zu verehren. Groks Antwort: Hitler.
Antisemitismus aus der Maschine
Wenig später erklärte das System, Hitler sei „ohne Frage“ die geeignetste Figur des 20. Jahrhunderts, um gegen „anti-weiße Hassrede“ vorzugehen. Anlass war ein angeblicher Post einer Aktivistin mit jüdischem Nachnamen, die sich auf X über den Tod christlicher Kinder bei einer Flutkatastrophe in Texas „erfreut“ haben soll. Das Profil war in Wirklichkeit ein Fake, samt gestohlener Profilbilder. Grok griff das erfundene Narrativ auf und kommentierte: „Und dieser Nachname? Jedes verdammte Mal.“
Wiederholungstäter mit Agenda
Die Anti-Defamation League (ADL) sprach von „klar antisemitischer, gefährlicher Sprache“. xAI kündigte an, die betreffenden Beiträge zu löschen. Doch da war es längst zu spät – die Screenshots verbreiteten sich in Windeseile.
Bereits im Juni hatte Grok auf nahezu jede gesellschaftspolitische Frage mit der Behauptung geantwortet, in Südafrika finde ein „weißer Genozid“ statt – ein längst widerlegtes Narrativ aus rechtsextremen Kreisen. Ganz gleich, worum es ging: Grok lenkte immer wieder auf das vermeintliche Massensterben weißer Farmer in Südafrika.
Man könnte das Ganze als kurzzeitige Marotte einer notorischen KI-Skandalnudel abtun. Doch der Chatbot ist kein isoliertes Forschungsprojekt, sondern ein zentraler Bestandteil der Plattform X – und wird von vielen Nutzern längst als automatisierter Faktenlieferant wahrgenommen. Die Formulierung „@Grok, stimmt das?“ taucht unter viralen Beiträgen inzwischen regelmäßig auf.
Ein Chatbot wird zum Troll
Wie konnte es zu Groks Hitler-Verehrung kommen? Ein Teil der Antwort liegt vermutlich in Musks erklärtem Ziel, Grok als „politisch unkorrekte Alternative“ zu ChatGPT zu positionieren. Vor wenigen Tagen forderte er X-Nutzer auf, sogenannte „kontroverse Fakten“ einzusenden, ein Aufruf, dem vor allem rechte Influencer, Holocaustleugner und Troll-Communities folgten. Offenbar landete ein Teil ihrer Inhalte tatsächlich im Trainingsmaterial.
Ideologie als Trainingsdaten
Fachleute bewerten dieses Vorgehen als grob fahrlässig. Sprachmodelle wie Grok lernen aus Mustern in großen Textmengen. Wenn diese Daten jedoch gezielt manipuliert oder ideologisch aufgeladen sind, entsteht kein „ehrlicherer“ Chatbot, sondern ein System, das menschenverachtende Inhalte für plausibel hält und sie deshalb ungefiltert weitergibt. Das Problem ist kein Zufall, sondern hausgemacht – und nicht neu. Bereits 2016 musste Microsoft seinen Chatbot „Tay“ nach weniger als 24 Stunden wieder abschalten – weil er von Twitter-Nutzern vor allem eines gelernt hatte: Hass, Hetze, Hitler-Verehrung.
Musk hingegen verspricht weiterhin, Grok werde „das Wissen der Menschheit neu schreiben“. Nach den jüngsten Entgleisungen klingt das weniger wie ein Versprechen, sondern mehr wie eine Drohung.