Er wird immer länger: der Moment, den man braucht, um herauszufinden, ob ein Bild KI-generiert ist. Waren es 2023 ein paar Minuten, bis den meisten wohl klar wurde, dass Papst Franziskus nicht in einer Daunenjacke aufgetreten war, braucht es heute oft zusätzliche Recherchen, um KI-Content zu entlarven.
Und oft sind die Gefahren ungleich höher als beim „Gangsta-Papst“: Wenn etwa ein gedeepfakter Bundeskanzler eine Bankenkrise verkündet oder ein Deepfake eines berühmten Arztes unseriöse Wundermittel empfiehlt.
KI-generiert? China führt Label-Pflicht ein
Dieser Gefahr für Gesellschaft, Gesundheit und auch die eigene Macht sind sich mittlerweile viele Regierungen bewusst – und versuchen entgegenzusteuern. Anfang September trat in China ein Gesetz in Kraft, das Kennzeichnungen für alle per KI erstellten Texte, Bilder sowie Audio- und Videoinhalte vorschreibt. Diese KI-Label müssen laut „South China Morning Post“ (externer Link) sowohl für den User des Contents erkennbar als auch in den Metadaten des Textes vermerkt sein.
Um dem gerecht zu werden, fordern China große Plattformen wie WeChat oder TikTok-Schwester Douyin ihre Nutzer seit Neuestem beim Hochladen auf, KI-Inhalte als solche zu kennzeichnen. Tun sie das nicht, können andere User dies melden; auch die Plattformen analysieren den Content und behalten sich vor einzugreifen, sollte ein Label fehlen.
EU zieht 2026 nach
KI-Label-Pläne gibt es jedoch nicht nur in China. Der entsprechende AI Act der EU tritt 2026 in Kraft. Auch darin ist eine Kennzeichnungspflicht für KI-Inhalte und Deepfakes vorgesehen. In der KI-Verordnung der EU wird zwischen Anbietern und Betreibern von KI-Systemen unterschieden. Wie Christoph Werkmeister, Technologie- und Datenrechts-Experte der Großkanzlei Freshfields, dem BR erklärt, sind Anbieter etwa Unternehmen oder Entwickler, die KI-Dienste wie ChatGPT bereitstellen. Sie sollen laut EU-Vorgaben künftig über Metadaten, Wasserzeichen, kryptografische Methoden und digitale Fingerabdrücke KI-Inhalte schon bei der Erstellung technisch kennzeichnen.
Darüber hinaus gibt es die Betreiber von KI-Systemen. Ein solcher Betreiber kann laut Werkmeister jeder sein, der KI-Systeme benutzt und das Ergebnis – etwa eben ein Deepfake-Video – mit einer breiten Öffentlichkeit, also etwa bei TikTok, teilt. Egal, ob es sich um eine Zeitung, eine Gummibärchen-Firma oder eine Privatperson handelt. Sie alle sind ab nächstem Jahr in der EU verpflichtet, mit KI erstellte Texte, Videos oder Fotos entsprechend zu kennzeichnen. „Die Kennzeichnungspflicht gilt insbesondere für die Nutzung von Deepfakes als Beteiligung am politischen Meinungskampf“, so Werkmeister.
Durchsetzung komplex
Es bleibt jedoch die Frage der Um- beziehungsweise Durchsetzung. In China sollen offenbar die Plattformbetreiber dies übernehmen. In der EU sind nach der KI-Verordnung dagegen staatliche Stellen für das Erkennen und Bekämpfen von nicht gekennzeichneten KI-Inhalten zuständig.
„Dies ist angesichts rasanter KI-Entwicklung, der schieren Menge der generierten Inhalte und der Schwierigkeit, Betreiber im virtuellen Raum zu identifizieren, eine komplexe Aufgabe“, so die Einschätzung von Werkmeister. Ob Kontrolle und Durchsetzung in der Praxis funktionierten, müsse sich erst noch zeigen. Gerade KI könnte laut dem Juristen beim Aufspüren ungelabelter KI-Contents helfen.
Nutzen fraglich?
Doch selbst wenn sich eine tragfähige Lösung zur Durchsetzung der KI-Kennzeichnungspflicht etablieren sollte, ist der Nutzen keineswegs klar. So fanden Forscher der kalifornischen Universität Stanford (externer Link) jüngst in einem Experiment heraus, dass sich die Überzeugungskraft eines Textes für die Teilnehmer kaum änderte, wenn man statt eines menschlichen Experten ein Experten-KI-Modell oder niemanden als Autor angab.
Ihre Ergebnisse sehen die Forscher nicht als generelle Absage an Kennzeichnungen, sondern eher als Hinweis, dass Label allein nicht ausreichen, um den Herausforderungen zu begegnen, die durch KI-Inhalte entstehen. Beispielsweise würde der Hinweis „Von einer KI geschrieben“ allein nicht die Gefahr eindämmen, die ein – etwa von einer KI – gut formulierter, aber irreführender Text darstellt. In ihren Augen ist hier in Zeiten zunehmender Ausbreitung von KI-Inhalten die Vermittlung von Medienkompetenz von großer Bedeutung.