Auch US-Präsident Donald Trump, ein enger Vertrauter Musks, zeigte Interesse an diesem Thema. Erst kürzlich gewährte seine Administration etwa 50 weißen Südafrikanern Flüchtlingsstatus in den USA – während gleichzeitig der Flüchtlingsstopp für andere Gruppen in Kraft blieb.
Fehlgeleitete KI
Das zwanghafte Verhalten von Grok deutet auf eine direkte Anpassung des KI-Systems hin. Bei der Vorstellung von Grok 3 im Februar betonte Musk, seine KI sei „maximal wahrheitssuchend, selbst wenn diese Wahrheit manchmal im Widerspruch zu politischer Korrektheit steht“.
Die offizielle Grok-Webseite betont, das Modell werde ständig verbessert, um „politisch unvoreingenommen zu bleiben und ausgewogene Antworten zu liefern.“ Der aktuelle Vorfall lässt jedoch vermuten, dass hinter den Kulissen menschliche Eingriffe stattfinden, die das Verhalten der KI in bestimmte Richtungen lenken.
Offizielle Reaktion von xAI
Kurz nach den Vorfällen korrigierte xAI, die Entwicklerfirma hinter Grok, das Verhalten des Chatbots. Viele der problematischen Antworten wurden von der Plattform entfernt. Am Freitag veröffentlichte xAI eine offizielle Erklärung zum Vorfall. Demnach wurde am 14. Mai eine „unbefugte Änderung“ am System-Prompt von Grok vorgenommen – also jenen Grundanweisungen, die das Verhalten des KI-Modells steuern und ihm sozusagen seine „Persönlichkeit“ verleihen.
Die Änderung verstoße gegen die internen Richtlinien und Grundwerte des Unternehmens. Wer diese Änderung vorgenommen haben könnte, ist nicht offiziell bekannt. Als Konsequenz kündigt xAI mehrere Maßnahmen an: Die System-Prompts sollen künftig öffentlich auf GitHub einsehbar sein, der System-Prompt sich in Zukunft nicht mehr so einfach ändern lassen.
Wer bestimmt, was KI-Modelle sagen?
Der Vorfall verdeutlicht die politische Dimension von KI-Systemen. Durch relativ einfache Änderungen an den zugrundeliegenden Anweisungen kann das Verhalten eines KI-Chatbots grundlegend manipuliert werden – ein Problem, das mit der zunehmenden Verbreitung dieser Technologien an Brisanz gewinnt.