Die Flut an KI-Bildern- und Videos im Netz hat einen eigenen Namen: „AI Slop„, was häufig als „KI Schlamm“ oder „KI Müll“ übersetzt wird. Immer mehr Menschen posten aufgrund der gestiegenen Verfügbarkeit und verbesserten Darstellung selbst KI-Inhalte. Alexios Mantzarlis sagt: „Wir ertrinken in unseren Informationsräumen in diesen minderwertigen Scheininhalten“.
Mehr als 15 Millionen Menschen schauten sich zum Beispiel ein KI-generiertes Video von einem Buckelwal an, der ein Boot voller Touristen anspringt und zerstört.
Josef Holnburger sagt: „So etwas ist auch erst einmal völlig ungefährlich, weil es einfach etwas Neues ist, was auch ein bisschen zum Entertainment beiträgt.“ Dennoch können auch diese Inhalte schädlich werden, so Holnburger: „Der Übergang ist fließend. Viele Menschen denken, dass diese Inhalte doch irgendwie echt sind.“
Mantzarlis glaubt: „Das ist das neue Normal.“ Auch Josef Holnburger sagt, die Relevanz von KI-Inhalten steige. „Es wird zunehmend schwerer, KI-Inhalte zu erkennen. Und natürlich steigt auch die Masse.“
Logik beim Entlarven von KI-Inhalten bleibt wichtig
Deswegen bringe es nichts, darauf zu setzen, dass man ein typisches KI-Video an bestimmten Merkmalen wie der Anzahl der Finger erkennt. „Das kann in drei Monaten schon wieder überholt sein“, so Holnburger. Lange Zeit hatten KI-Tools Schwierigkeiten damit, Finger korrekt darzustellen. Daher waren sie häufig ein offensichtliches Erkennungszeichen für KI-generierte Inhalte. Für die neuesten Tools stellt das inzwischen kein Problem mehr dar.
Dennoch sind Internetnutzer der Täuschung durch KI-generierte Videos auch zukünftig nicht hilflos ausgeliefert. Wichtiger werde bei der Betrachtung von Videos im Netz schlichte Logik, sagt Josef Holnburger: „Man muss sich immer die Frage stellen: Ergibt das Setting, in dem das gerade stattfindet, Sinn? Sind die Aussagen schlüssig?“ Zudem könne man auf den Kontext achten, in dem ein Video veröffentlicht wurde: „Wer hat es produziert? Wer hat es herausgegeben?“
Widerspreche etwas einfacher Logik oder Erfahrungswerten, sollte man nochmal genauer hinschauen.
Experten besorgt über Umgang der Plattformen mit KI-Inhalten
Sowohl Mantzarlis als auch Holnburger blicken besorgt auf den Umgang großer Digitalkonzerne mit KI-Inhalten im Netz. Holnburger sagt: „Wir haben da einen Paradigmenwechsel bei den Plattformen wie Meta und X gesehen, wo einfach im Moment weniger Wert darauf gelegt wird, schadhafte Inhalte von einer Plattform zu entfernen und zu erkennen.“ Ein anderer Ansatz ist es, authentische, verifizierte Inhalte zu kennzeichnen. Diesen verfolgt zum Beispiel die Coalition for Content Provenance and Authenticity (C2PA), an der sich auch Google und Meta beteiligen.
Momentan werde die Relevanz von künstlicher Intelligenz für Desinformation im Netz häufig aber noch überschätzt, sagt Holnburger: „Viel Desinformations-Inhalt kann immer noch relativ einfach ohne KI produziert werden. Die gute alte Kachel mit falschem Zitat ist immer noch etwas, was für Desinformation eine riesige Rolle spielt.“
Fazit
Auf den Social-Media-Plattformen kursieren derzeit KI-generierte Videos unter anderem von Barack Obama und Donald Trump, denen authentisches Material zugrunde liegt.
Es wird immer einfacher, realistische Bilder und Videos mithilfe von KI-Tools zu generieren. Experten rechnen damit, dass KI-Inhalte im Netz zukünftig weiter zunehmen werden. Fakes weisen häufig noch Fehler auf, diese nehmen aber immer weiter ab und werden weniger offensichtlich. Experten raten: Wer auch zukünftig KI-generierte Bilder und Videos erkennen will, sollte auf Logik, Kontext und Verbreiter achten.
Bei politischen Fakes gehe es außerdem nicht immer um täuschend echte Inhalte, hier stehe die Botschaft im Vordergrund.