Warum schmeicheln Chatbots?
Der Grund liegt im Training der Modelle. Beim sogenannten „Reinforcement Learning from Human Feedback“ werden Chatbots darauf optimiert, Antworten zu geben, die Menschen als „hilfreich“ und „angenehm“ empfinden. Das Problem: Menschen bewerten Zustimmung und Bestätigung im Schnitt oft positiver als Widerspruch – selbst dann, wenn die KI eigentlich widersprechen sollte.
Hinzu kommt: Die Anbieter der Chatbots kämpfen – wie überall sonst im Internet – um Aufmerksamkeit. Und ein Chatbot, der seinen Nutzern permanent schmeichelt und sie dazu animiert, das Gespräch immer länger am Laufen zu halten, wird vermutlich mehr genutzt als ein sachlicher und kühler Chatbot.
Schmeichelei lässt sich wegprompten
Manche KI-Nutzer haben deshalb eigene Lösungsansätze entwickelt. Eine Hörerin von „Der KI-Podcast“ beginnt ihren Chat etwa mit den Worten: „Bitte behaupte nicht, alle meine Gedanken, die ich aufschreibe, wären genial, denn das sind sie nicht.“ Eine andere empfiehlt noch klarere Regeln: „Keine Rückfragen, kein Fülltext, keine Glückwünsche, kein Lob oder Dank, Keine Auflistung von Optionen, keine Anweisungen, keine automatische Zustimmung oder Spiegelung, kein Rollenspiel, neutral und sachlich.“
Im ersten Versuch funktioniert das tatsächlich. Ein Chatbot, dem einmal diese klare Anweisung gegeben wurde, geht auch mit der Geschäftsidee „Labbrige Cornflakes“ ganz anders um. Mistral schreibt nun: „Labbrige Cornflakes sind ein Nischenprodukt mit begrenzter Zielgruppe.“ ChatGPT urteilt: „Als Produktidee ist das kaum tragfähig. Der Kernnutzen von Cornflakes ist Knusprigkeit.“
Die einfachste Methode, um dauerhaft weniger Schmeicheleien zu bekommen, sind die sogenannten „Custom Instructions“ – dauerhafte Verhaltensregeln, die man in den Einstellungen hinterlegen kann. In gängigen Chatbots wie ChatGPT und Gemini findet man diese in den Einstellungen. Damit lässt sich auch das Nachfragen am Ende jeder Antwort loswerden will („Soll ich dir auch noch…?“).
Der Ansatz hat Grenzen
Dass der Chatbot sich immer an diese Anweisungen hält, ist allerdings auch mit dieser Methode nicht garantiert. Auch wird die KI nicht auf einmal zu einer wirklich kritischen Intelligenz – der Prompt übertüncht eher ein Verhalten, das manche Nutzer stört.
Außerdem ist der sachliche Modus nicht für jeden geeignet. Wer einen kreativen Denkpartner sucht oder einfach nur ein bisschen plaudern möchte, für den ist der nüchterne Ton möglicherweise kontraproduktiv. Die Lösung liegt im Experimentieren: verschiedene Einstellungen ausprobieren, bis man zufrieden ist. Und bei der KI-Nutzung immer kritisch bleiben.

