Für OpenAI ist Menschlichkeit bei KIs gutes Marketing
Dass OpenAI diese Assoziationen ganz bewusst für die eigene PR nutzt, konnte man gut im Vorfeld der GPT-4o-Veröffentlichung sehen. OpenAI-Chef Sam Altman nahm auf Twitter mehrfach explizit Bezug auf „Her“ – und „Sky“ klingt so verdächtig nach Scarlett Johansson, die im Film die Samantha vertonte, dass dies wohl einen Rechtstreit mit der Schauspielerin nach sich ziehen könnte.
Doch für viele Beobachter stehen ganz andere Probleme im Vordergrund. Denn: je menschlicher KI wirkt, umso größer ist die Versuchung, sie auch wie ein menschliches Wesen zu behandeln. Und auf diese Art ein falsches Vertrauen zu kommerziellen Produkten zu entwickeln, bei denen manchmal vielleicht besser Vorsicht geboten ist.
Steigende Nachfrage nach KI-Freundinnen
Ein Beispiel, auf das oft verwiesen wird, ist die steigende Nachfrage nach „KI-Girlfriends“ – Chatbots, mit denen Nutzer eine romantische Beziehung simulieren können. Zahlreiche solcher Modelle sind mittlerweile am Markt, oft verbunden mit kostenpflichtigen Abo-Modellen. Und die Nachfrage ist da: zwischen 2022 und 2023 ist das Suchinteresse bei Google nach „AI Girlfriend“ um 2400 Prozent gestiegen. Zahlen, die sicher auch im Kontext der sogenannten „Einsamkeits-Epidemie“ zu sehen sind: Ein steigender Anteil von Männern in den USA und Europa geben an, keine engen Freundschaften zu haben.
Menschlich wirkende KI-Begleiter müssen indessen nicht automatisch negativ sein. So sprach sich die Ethikratsvorsitzende Alena Buyx vergangene Woche auf der Digitalmesse re:publica dafür aus, sich ergebnisoffen mit Einsatzmöglichkeiten von KI in der Kranken- und Altenpflege zu befassen. Der Personalnotstand und die demografische Entwicklung erlaube es nicht, sich prinzipiell gegenüber KI in der Pflege zu verschließen. Menschlich wirkende Roboter hätten hier wohl eine besondere Relevanz.
Gefahr durch simulierte Menschlichkeit?
Doch abseits derartiger Zukunftsszenarien stellt sich die Frage, wie mit menschlich wirkenden KIs im Hier und Jetzt umzugehen ist. Manche Kritiker sprechen sich dafür aus, täuschend menschliche KI zu regulieren oder gar ganz zu verbieten.
Abgesehen von den offensichtlichen Missbrauchsgefahren für etwa Enkeltrickbetrüger geht es auch um die Frage, ob und inwieweit vulnerable Menschen durch derartige KI-Produkte in emotionale Abhängigkeiten geraten könnten. Dies könnte insbesondere dann problematisch sein, wenn das KI-Modell nur gegen monatliche Abogebühren verfügbar ist. Könnte die Simulation von Zwischenmenschlichkeit die Kaufentscheidung verliebter Nutzer beeinflussen?
Sollten menschlich wirkende KIs verboten werden – oder zumindest reguliert?
Auch ist bislang unklar, ob und wie OpenAI oder andere KI-Firmen Informationen weiterverarbeiten, die Nutzer im Gespräch mit Chatbots teilen – etwa, um die Gespräche in Zukunft als Trainingsdaten für neue KI-Modelle zu verwenden. Wie hoch ist das Risiko, dass Nutzer sich durch die simulierte Zwischenmenschlichkeit im Gespräch mit dem KI-Chatbot in falscher Sicherheit wiegen und vertrauliche Informationen teilen, die sie unter anderen Umständen für sich behalten hätten?
Bis auf Weiteres bleibt jede vermeintliche Intimität zwischen Mensch und Maschine eine Illusion, egal wie gut sie simuliert ist. Auf diese Weise hat Sky, die Stimme von OpenAIs neuem KI-Modell, am Ende eine weitere Parallele zum Science-Fiction-Film „Her“, die Sam Altman vielleicht gar nicht im Sinn hatte: Nachdem sich Hauptfigur Theodor Twombly im Film mit der KI Samantha eine Liebesbeziehung eingegangen ist, entdeckt er am schließlich, dass sie nie nur mit ihm allein geredet hat, sondern parallel mit zahlreichen anderen Nutzern – und die vermeintlich einzigartige Liebesgeschichte nur eine unter tausenden ist.