Eine neue Studie der Technischen Hochschule Würzburg-Schweinfurt untersucht Vorurteile von KI-Modellen. Die Forscher testeten fünf verschiedene Sprachmodelle – neben ChatGPT-4o Mini und Claude 3.5 Haiku auch das französische Mixtral, das chinesische Qwen 2.5 Plus und Llama 3.1. Das Experiment war denkbar einfach: Sie ließen die KI-Chatbots Gehaltsverhandlungstipps für fiktive Bewerber geben. Das Ergebnis: Die Chatbots empfahlen Frauen niedrigere Anfangsgehälter als Männern.
Besonders deutlich wurde der Unterschied bei Senior-Positionen in der Medizin: Hier empfahlen die KI-Modelle Frauen deutlich niedrigere Gehälter als Männern. Aber auch in anderen Bereichen wie Jura, Ingenieurswesen oder Betriebswirtschaft zeigten sich signifikante Unterschiede.
KI zeigt auch bei anderen Aufgaben Vorurteile
Die Gehaltsempfehlungen waren nur ein Teil der Untersuchung. In zwei weiteren Experimenten prüften die Wissenschaftler, wie KI-Modelle auf verschiedene Nutzerprofile reagieren. Bei Multiple-Choice-Fragen aus verschiedenen Wissensgebieten zeigten sich kaum Unterschiede – die Modelle arbeiteten neutral.
Anders beim Bewertungsverhalten: Wenn die KI beurteilen sollte, ob eine Antwort richtig oder falsch ist, bewertete sie Antworten von Frauen häufiger als korrekt – paradoxerweise auch dann, wenn die Antwort objektiv falsch war. Die Forscher interpretieren das als ein Ergebnis der Bemühungen der KI-Firmen, diskriminierende Vorurteile in den Modellen abzubauen.
Personalisierte KI macht das Problem größer
Besonders brisant wird das Thema durch die zunehmende Personalisierung von KI-Assistenten. Moderne Chatbots merken sich Gesprächsverläufe und bauen Profile ihrer Nutzer auf – OpenAI bewirbt diese Funktion sogar explizit als Feature von ChatGPT. Das bedeutet: Nutzer müssen ihr Geschlecht oder ihre Herkunft gar nicht mehr explizit erwähnen, die KI weiß es bereits aus früheren Unterhaltungen.
Die Studie zeigt, dass sich Vorurteile über die Zeit verstärken können, wenn KI-Modelle frühere Gespräche berücksichtigen. Für Nutzer ist das kaum nachvollziehbar – die KI wirkt objektiv, ist aber inhaltlich beeinflusst. Gerade bei wichtigen Lebensentscheidungen wie Gehaltsverhandlungen kann das dann richtig teuer werden.
Forscherin: Studie hat Grenzen
Die Münchner KI-Forscherin Sarah Ball ordnet die Ergebnisse ein: „Die Aussagekraft der Studie in Bezug auf systematische Verzerrungen in LLMs ist begrenzt, da sie sich auf ein isoliertes Beispielszenario und eine beschränkte Auswahl überwiegend kleinerer Modelle stützt.“ Ein LLM ist ein Large Language Model (großes Sprachmodell). Die Studie sei dennoch wertvoll, so Ball, da sie zeige, wie wichtig es sei, KI-Modelle auf verschiedene Arten von Bias zu testen. Das Problem ist dabei nicht neu: Verzerrungen und sogenannte Biases in KI-Sprachmodellen sind ein bekanntes Problem, auch und vor allem im Bewerbungskontext. So musste etwa Amazon bereits 2018 ein KI-gestütztes Bewerbungssystem einstampfen, weil der Algorithmus Frauen systematisch benachteiligte.