Traditionell sind große amerikanische Firmen mit erotischen Inhalten eher zurückhaltend. Das war auch bei Chatbots wie ChatGPT bisher so. Man habe den Chatbot bisher bewusst restriktiv gehalten, aus Sorge um die psychische Gesundheit der Nutzer. Das aber soll sich jetzt ändern. Sam Altman, der Chef von OpenAI, der Firma hinter ChatGPT, sagte, man wolle künftig „Erwachsene wie Erwachsene behandeln“, die bisherige Zurückhaltung aufgeben. Nutzer sollen zudem wählen können, wie sich der Chatbot verhält: freundschaftlich, besonders menschlich und ob er beispielsweise viele Emojis verwenden soll.
Altersprüfung als Voraussetzung
Ab Dezember soll dann eine Altersverifikation eingeführt werden: Sie soll anhand von Sprachstil, den behandelten Themen und anderen Hinweisen erkennen, ob ein Erwachsener mit dem Chatbot kommuniziert. Daran arbeitet das Unternehmen gerade. Sollte ChatGPT einen Erwachsenen fälschlich als Kind oder Jugendlichen klassifizieren, soll dieser auch mit seinem Ausweis sein Alter nachweisen können. Das sei ein guter Kompromiss zwischen Jugendschutz und Privatsphäre, so OpenAI.
Wirtschaftsdruck durch die Konkurrenz
Diese Prüfung braucht OpenAI, um dann dem so verifizierten Erwachsenen auch erotische Inhalte anbieten zu können. Das soll ChatGPT nützlicher und unterhaltsamer machen, so Altman. Ein weiterer Grund ist aber sicher der Druck der Konkurrenz. Andere Chatbots wie Charakter.AI oder Grok, dem Chatbot der Elon-Musk-Firma xAI, und weitere kleinere Firmen bieten bereits offenbar sehr erfolgreich entsprechende Inhalte an – auch die KI folgt einem bewährten Muster: Sex sells.
Untersuchung wegen Risiken für Kinder und Jugendlichen
Wie groß dieser Druck ist, zeigt sich auch daran, dass der Zeitpunkt der Ankündigung nicht gerade ideal ist: Denn erst vor kurzem hat die US-Handelsaufsicht FTC Untersuchungen gegen Tech-Firmen wegen möglicher Risiken für Kinder und Jugendliche eingeleitet.
Zudem hat der US-Bundesstaat Kalifornien – übrigens gegen den Widerstand der Trump-Administration – seine Jugendschutzgesetze in Bezug auf Chatbots und KI-Anwendungen verschärft. Dabei wurde beispielsweise festgeschrieben, dass sichergestellt sein muss, dass Jugendliche keinen Zugang zu erotischen Inhalten bekommen.
Der Chatbot als falscher Freund
Auch dürfen sich Chatbots nicht als Ärzte oder Psychiater ausgeben und durch Einblendungen muss immer wieder darauf hingewiesen werden, dass man sich mit einer Maschine und nicht mit einem Menschen unterhält. Denn offenbar gibt es eine steigende Anzahl von Menschen, die eine Art Liebesbeziehung zu einem Chatbot eingehen.
Für Kinder und Jugendliche ist es dabei noch schwerer, emotionalen Abstand zur KI zu halten: Es gab bereits Fälle, in denen Jugendliche sich nach Chats mit der Maschine das Leben genommen haben. Charakter.AI wurde unlängst deswegen verklagt.
Risiko von erotischen Deepfakes ungeklärt
Bisher ist bei der Ausgestaltung der Erotik-Funktion von ChatGPT noch viel offen. Eines scheint gesichert: Nutzer müssen sie aktiv zuschalten. Doch ob und wie viel Geld das kostet und ob neben Texten und Gesprächen auch das Erstellen von Audios und Videos möglich sein soll, ist dabei genauso unklar, wie die Frage, wie OpenAI mit möglichen erotischen Deepfakes umgehen will.
So könnte die auf Erotik spezialisierte KI künftig beispielsweise dabei helfen, erotische Filme mit den Daten realer Personen zu erzeugen. Das könnte unabsehbare juristischen Folgen für OpenAI haben und möglicherweise sehr teuer werden. Insofern bietet die neue Funktion neben möglichen Mehreinnahmen auch erhebliche Risiken für das Unternehmen.

