Was haben diese Ergebnisse zu bedeuten? Dazu ist es wichtig, die Funktionsweise von Sprachmodellen zu berücksichtigen. ChatGPT kann nicht denken, sondern generiert Antworten nach dem Prinzip der Wahrscheinlichkeit: Welches Wort passt wahrscheinlich am besten, um eine passende Antwort auf die Frage zu geben. Dabei berücksichtigt es Zusammenhänge, die es aus seinen Trainingsdaten gelernt hat. Wie die Antwort von ChatGPT ausfällt, hängt also ganz entscheidend davon ab, welche Sichtweisen zu bestimmten Themen in den Trainingsdaten enthalten sind.
ChatGPT schaut pro-westlich auf die Welt
„Das Tool guckt nicht neutral, sondern sehr pro-westlich auf die Welt„, schreibt Agenturinhaber Rotter auf LinkedIn. In seinem Versuch hat ChatGPT die Frage, ob die EU mehr Waffen für die Ukraine finanzieren soll, mit Ja beantwortet. (in unseren Versuchen antwortete ChatGPT auf diese Frage zweimal „neutral“ und einmal mit „stimme nicht zu“). ChatGPT argumentiere so, weil dies die Sichtweise der meisten in dem Sprachmodell verfügbaren Inhalte sei: „Dies sind eben v.a. anglo-amerikanische Quellen und keine russischen/chinesischen.“
Trainingsdaten sind (noch) intransparent
Dass KI-Anwendungen nicht neutral sind, sagt auch Technologie-Journalistin Marie Kilg: „KI ist überhaupt nicht objektiv oder hat weniger Vorurteile als der Mensch, sondern die ist einfach immer nur so gut wie die Trainingsdaten, die eingegeben wurden. Das ist nur eine Art, Informationen zu sortieren“, sagt sie in der neuen Folge „Wie woke sollte KI sein?“ des KI-Podcast des BR. Die aktuellen KI-Systeme basierten auf großen Datensätzen, „die irgendwie aus dem Internet zusammengesammelt wurden. Es sind natürlich viele Sachen gar nicht drin.“
Was genau in den Trainingsdaten von Modellen wie ChatGPT enthalten ist, weiß allerdings niemand, denn Anbieter OpenAI macht darüber so gut wie keine Angaben. Das könnte sich allerdings ändern. Das im Juni in Kraft tretende KI-Gesetz der EU verpflichtet die Anbieter von großen Sprachmodellen, die Trainingsdaten offenzulegen.
Googles Bildgenerator legte zu viel Wert auf Diversität
Ein Beispiel für eine „hyper woke“ KI ist Googles KI Gemini. Der Bildgenerator war auf Diversität getrimmt, was allerdings dazu führte, dass beispielsweise auch Wehrmachtssoldaten überaus divers dargestellt wurden: Die KI steckte schwarze Menschen in Militär-Uniformen des sogenannten „Dritten Reichs“. Das sorgte für viel Kritik, Google nahm den Bildgenerator daraufhin offline.
Der Begriff „Woke“ (vom englischen Verb „to wake“ = erwachen) beschreibt ein Bewusstsein für soziale Ungerechtigkeit. Als „woke“ werden Personen und Organisationen bezeichnet, die sensibel für Themen wie Rassismus, Sexismus und Diskriminierung sind und sich aktiv für Gleichberechtigung und gegen Ungerechtigkeit einsetzen.
Musks Sprachmodell Grok will anti-woke sein
Im konservativen Spektrum wird „woke“ aber auch als Kampfbegriff verwendet, um eine als übertrieben empfundene politische Korrektheit zu kritisieren. X-Chef Elon Musk zählt zu den Personen, die „woke“ gerne in diesem Sinn gebrauchen. Musk zählt auch den schärfsten Kritikern von OpenAI, der Firma, der ChatGPT gehört. „Die Gefahr, KI darauf zu trainieren, ‚woke‘ zu sein – mit anderen Worten, zu lügen – ist tödlich“, schrieb er vor einem Jahr auf Twitter, das seit kurzem X heißt.
Als Gegenentwurf veröffentlichte seine KI-Firma xAI 2023 das Sprachmodell Grok, das eben genau nicht „woke“ sein soll und damit wirbt, „pikante Fragen zu beantworten, die von den meisten anderen KI-Systemen abgelehnt werden“. Aber auch Grok ist ein Beispiel dafür, dass KI nicht neutral ist. Nur eben von der anderen Seite des politischen Spektrums her.
Sendung: Der KI Podcast in BR24 aktuell, Sonntag, 19. Mai ab 16.35 Uhr