Plattformen wie TikTok, Instagram oder Snapchat sind für viele Jugendliche die wichtigste Nachrichtenquelle. Deren Algorithmen bevorzugen allerdings Inhalte, die stark emotionalisieren. Dadurch erreichen zugespitzte, überzeichnete oder irreführende Beiträge oft mehr Menschen als sachliche Einordnungen. Auch manipulative, mihilfe von Künstlicher Intelligenz erstellte Videos, sogenannte „Deepfakes“, verbreiten sich dort rasant.
Digitale Tools sollen Desinformation im Netz erkennen
Das neue Forschungsprojekt VAMPIR (Videonutzung in der Adoleszenz – Manipulation, Propaganda, Information und Resilienz) soll deshalb untersuchen, mit welchen Mechanismen solche Deepfakes ihre schädliche Wirkung erzielen und wie Jugendliche davor geschützt werden können. Beteiligt sind Forscherinnen und Forscher aus Medienpsychologie, Kommunikations- und Rechtswissenschaft sowie Informatiker wie Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie SIT. Er will die Videos in ihre einzelnen Komponenten zerlegen und analysieren. Sein Ziel ist, Hinweise auf Widersprüche zwischen den emotionalisierenden Bildern und Tönen einerseits und den Texten andererseits herauszufinden. Solche Diskrepanzen können als Indikatoren dienen, um Videos mit Desinformation zu identifizieren. „Diese Informationen fließen dann in die Kommunikationswissenschaft und Medienpsychologie. Wenn diese Zusammenhänge herstellen und Indikatoren aufzeigen, bauen wir quasi einen Detektor. Dieser gibt dann Alarm, wenn Inhalt und Bild im Hintergrund nicht zusammenpassen,“ erläutert Steinebach das Vorhaben.
Widersprüche von Wort und Bild in Videos
Als Beispiel für ein solches Deepfake-Video nennt Steinebach einen Film-Clip, bei dem der Sprechertext in scheinbar nüchterner Sprache die Impfung gegen das Corona-Virus behandelt. Im Hintergrund aber seien Bilder von Konzentrationslagern gezeigt worden. „Erst wenn man aus dem Video automatisiert Beschreibungen erstellt und diese dem Text gegenüberstellt, hat man die Chance, die Manipulation zu verstehen.“ Schon jetzt gebe es zwar digitale Analyse-Tools. Diese würden aber vornehmlich die reinen Textaussagen betrachten und nicht in Kombination mit Bild und Ton. Zudem hätten sie eine Fehlerrate von etwa zehn Prozent. Für die Analyse einzelner Videos sei das nicht ausreichend, so Steinebach.
Keine Warn-App vor Desinformation, aber Hilfsmittel für Aufklärung
Am Ende des Projekts werde es aber keine Warn-App für das Handy geben, die vor Deepfakes und Desinformation warnt. Ziel sei eher ein Bündel an Erkennungswerkzeugen für Plattformbetreiber, Aufsichtsbehörden, Jugendorganisationen und Schulen. Vor allem aber solle den Jugendlichen direkt geholfen werden, betont die am Forschungsprojekt VAMPIR beteiligte Medienpsychologin Amancay Ancina von der Universität Duisburg: „Am Ende wollen wir Jugendliche und junge Erwachsene dazu motivieren, ihr Rechercheverhalten zu verändern. Wir wollen sie resilienter machen und sensibler für Desinformation. Das bedeutet auch, dass sie bei Unsicherheit auf seriöse und glaubwürdige Quellen zurückgreifen.“
Algorithmen bevorzugen emotionalisierende Inhalte
Allerdings werde es den seriösen Nachrichtenquellen nicht leicht gemacht, erklärt Ancina, denn die Algorithmen der Videoplattformen bevorzugen reißerische, stark emotionalisierende und schockierende Inhalte. Diese werden bei den Suchergebnissen vorangestellt, mehr verbreitet und häufiger geteilt. Seriöse Anbieter können daher dazu verleitet werden, auch ihre Inhalte entsprechend daran anzupassen. Davon rät Amancay Ancina aber ab: „Diese glaubwürdigen, seriösen Quellen müssen so bleiben, die dürfen nicht Teil des Desinformationssystems werden.“ Sonst hätten Jugendliche noch weniger Möglichkeiten, verlässliche Quellen zu finden.
Skepsis gegenüber Social-Media-Verbot
Einem Social-Media-Verbot stehen Ancina und Steinbach skeptisch gegenüber. Zum einen werde damit die Ursache des Problems nicht beseitigt. Zum anderen würden Jugendliche immer einen Weg finden, solche Verbote zu umgehen. Unklar sei auch, welches Medium verboten werden solle, ob etwa der Zugang zu Messenger-Dienst ebenfalls eingeschränkt werden sollte. Für Amancay Ancina steht daher Aufklärung im Vordergrund: „Man sollte lieber die kritische Denkfähigkeit, die Resilienz von Kindern und Jugendlichen und jungen Erwachsenen stärken und ihnen Tools in die Hand geben, die ihnen die Fähigkeit geben zu erkennen, was eine seriöse Quelle und was Desinformation ist.“

