Bund will Rechtslücken schließen
Zugleich will die schwarz-rote Bundesregierung sich dem Thema annehmen. Im Koalitionsvertrag ist zu lesen, dass sie das Cyberstrafrecht reformieren und Strafbarkeitslücken schließen wolle, auch bei Deepfakes.
Auf BR24-Anfrage erklärt ein Sprecher des Bundesjustizministeriums, dass man das Thema sehr ernst nehme und derzeit eine Umsetzung dieser Ziele aus dem Koalitionsvertrag prüfe. Er verweist zudem darauf, dass das Verbreiten missbräuchlicher Deepfakes schon jetzt strafrechtlich verfolgt werden kann, etwa als Verleumdung oder als Verletzung von Persönlichkeits- oder Urheberrechten.
Bayern bringt Gesetzentwurf ein
Konkretere Pläne für eine Deepfake-Regulierung in Deutschland kommen derweil aus Bayern. Schon im vergangenen Jahr hatte der Bundesrat auf Initiative des Freistaats einen Gesetzentwurf eingebracht, der das Veröffentlichen von Deepfakes in vielen Fällen unter Strafe stellen würde. Bis zu fünf Jahre Freiheitsstrafe sind vorgesehen.
Bayerns Justizminister Georg Eisenreich (CSU) dazu gegenüber BR24: „Das geltende Recht ist hier unklar, unübersichtlich und lückenhaft. Es gibt eine Vielzahl an Vorschriften, die das zunehmende Problem nur in Teilaspekten erfassen.“ Zum EU-AI-Act erklärt sein Ministerium, dass hier lediglich offengelegt werden müsse, dass Inhalte künstlich erzeugt oder manipuliert wurden – und kein strafrechtlicher Schutz gewährleistet werde.
Zugleich würden laut dem Ministerium „immer mehr“ Menschen, besonders Frauen und Mädchen, Opfer solcher Deepfakes. Konkrete Zahlen zu Verbrechen mit Hilfe KI-manipulierter Bilder kann Bayerns Landeskriminalamt auf BR24-Anfrage allerdings nicht nennen. Der Bundesrats-Gesetzentwurf wird nun im Bundestag behandelt.
Komplizierte Verfolgung
Zugleich bleibt bei der Regulierung solcher digitaler Phänomene so und so oft die Frage nach der Strafverfolgung im Raum. Darauf weist auch Technologie-Forscher Murat Karaboga in einer Analyse der EU-KI-Regeln für die Bundeszentrale für politische Bildung (externer Link) hin: Angesichts der Vielzahl von KI-generiertem Material sei äußerst fraglich, dass die zuständigen Behörden in der Lage sein werden, zu erkennen, wann einem Fall nachgegangen werden müsste und wann nicht.
Sowieso sei oftmals erforderlich, dass der Betroffene überhaupt mitbekommt, dass er zum Opfer eines Deepfakes wurde und entsprechende Schritte einleitet. Und selbst wenn das geschieht, bleibt die Frage, inwiefern ermittelbar ist, wer hinter der digitalen Veröffentlichung eines Fotos oder Videos steckt.