Wer im Netz unter einem Pseudonym postet, geht davon aus, sich unerkannt zu äußern. Eine Studie der ETH Zürich (externer Link) stellt das jetzt infrage – mit Ergebnissen, die drei unterschiedliche Szenarien öffnen: KI könnte helfen, anonyme Hetzer zu identifizieren. Sie könnte aber auch Staaten und Unternehmen ein Werkzeug zur Massenüberwachung liefern. Und sie könnte Kriminellen ermöglichen, Posts für personalisierte Betrugsversuche zu nutzen.
Wie KIs das Netz de-anonymisieren
Die Schweizer Forscher glichen pseudonyme Postings mit realen Identitäten ab. Ein Experte des KI-Unternehmens Anthropic begleitete das Projekt beratend. Als Basis nutzten die Forschenden Nutzerprofile des Netzwerks LinkedIn sowie der Diskussionsplattformen Reddit und Hacker News. Für ihre Analysen setzten sie Sprachmodelle von ChatGPT (OpenAI), Gemini (Google) und Grok (xAI) ein.
Die Forschenden ließen biografische Merkmale analysieren – wie Beruf, Interessen, Herkunft und Schreibstil –, um anonyme Beiträge namentlich bekannten Identitäten zuzuordnen. Bei der Verknüpfung von Hacker-News-Profilen mit LinkedIn identifizierte das System 67 Prozent der Nutzer korrekt – bei Reddit waren es bis zu 52 Prozent.
Darum sehen die Studienautoren mehr Gefahren als Chancen
Die Forschenden warnen ausdrücklich vor drei Risiken:
Versicherungen und Firmen, die gezielt den Hintergrund von Menschen etwa für Arbeitgeber prüfen, könnten ohne das Wissen der Betroffenen Risikoprofile erstellen. In einem Experiment griffen die Forschenden auch auf einen Datensatz zurück, den das KI-Unternehmen Anthropic anonymisiert veröffentlicht hatte. Dennoch identifizierte die KI 9 von 33 Personen.
Auch Kriminelle könnten aus öffentlichen Posts persönliche Dossiers für Spear-Phishing-Angriffe entwickeln, bei denen die Täter ihre Opfer mit persönlichen Details täuschen.
Drittens könnten Regierungen und Extremisten alle enttarnen, die den Schutz der Pseudonymisierung brauchen, wie Dissidenten, Journalisten und Whistleblower.
Ermittler registrieren mehr Hass im Netz
Aber könnte die einfache Enttarnungsmöglichkeit nicht auch die Chance bieten, um Hass und Hetze im Netz einzudämmen?
Lohnen würde es sich jedenfalls: Die polizeilich erfassten Hass- und Hetzpostings haben sich laut Bundeskriminalamt (externer Link) allein zwischen 2021 und 2024 von 2.400 auf 10.700 vervierfacht – allerdings auch, weil das BKA die Erfassung verbessert hat. Wie ernst die Justiz das nimmt, zeigen die Zahlen aus Bayern: Dort leiteten Staatsanwaltschaften allein 2024 rund 3.400 neue Hate-Speech-Verfahren (externer Link) ein.
Das Datenschutzrecht setzt der De-Anonymisierung Grenzen
Mit KI könnten die Ermittler viele anonyme Hater identifizieren. Rechtlich aber setzt die Datenschutz-Grundverordnung DSGVO der automatisierten Erstellung von Persönlichkeitsprofilen enge Grenzen. Gerichte können die gesammelten Beweise verwerfen.
Bereits 2023 warnte das Bundesverfassungsgericht (externer Link) im Zusammenhang mit der Palantir-Software der Polizei: Sollten lernfähige KI-Systeme in der Ermittlungsarbeit zum Einsatz kommen, wiege der Grundrechtseingriff besonders schwer. Die Ergebnisse solcher Systeme seien kaum nachvollziehbar, der Staat drohe die Kontrolle über die eigene Anwendung zu verlieren – und beim Einsatz von Software privater Akteure bestehe die Gefahr unbemerkter Manipulation oder unbemerkten Datenzugriffs durch Dritte.
So nutzt Deutschland derzeit KI zur Ermittlungsarbeit
Bislang setzen die Behörden KI deshalb anders ein: nicht zur Enttarnung, sondern zur KI-basierten Früherkennung strafbarer Inhalte. Bayern hat an allen 22 Staatsanwaltschaften Sonderdezernate gegen Hassrede (externe Links) eingerichtet, die die Täter aber weiterhin auf klassischem Weg identifizieren – über IP-Adressen und Plattformauskünfte. Auch andere europäische Staaten dokumentieren Hass und Hetze im Web. Spanien setzt dafür jetzt auf KI, schreibt die Augsburger Allgemeine Zeitung (externer Link, möglicherweise Bezahlinhalt).
Wer hetzen will, hetzt auch unter seinem echten Namen
Bleibt die Frage, ob Hass und Hetze im Netz überhaupt abnehmen würden, wenn die Nutzer wüssten, dass sie identifizierbar sind. Die Antwort ist ernüchternd: Südkorea hat bereits 2007 eine Klarnamenpflicht eingeführt. Geändert hat das wenig, das Gesetz wurde 2012 kassiert. Eine Zürcher Studie fand 2016 heraus: Nicht-anonyme Nutzer waren sogar aggressiver als anonyme. Die Erklärung der Forscher: Wer seine Aggression als Einsatz für das Richtige versteht, versteckt sich nicht.
Anonymität im Netz ist eine Illusion
Die neue Studie verändert die Debatte um die Klarnamenpflicht im Web grundlegend: Anonymität muss wohl nicht per Gesetz abgeschafft werden. Sie ist ohnehin bereits nur noch eine Illusion. Wer Zugriff auf ChatGPT, Gemini und Co. hat, kann anonyme Nutzer mit relativ hoher Sicherheit identifizieren. Die Frage ist nicht mehr, ob das jemand macht, sondern wer – und mit welchem Ziel.

