Fakes zu erstellen, wird durch KI einfacher
Wofür es früher noch aufwendige Produktionen, mehrere Personen mit besonderen technischen Fähigkeiten und teure Computerprogramme brauchte, das kann heute mit wenigen Klicks, ohne professionelles technisches Wissen und mit günstigen Programmen erstellt werden.
„Im besten und im schlechtesten Sinne demokratisiert Künstliche Intelligenz die Schaffung von Inhalten“, sagt Andreas Jungherr im Gespräch mit dem #Faktenfuchs. Jungherr ist Professor für Politikwissenschaft an der Universität Bamberg und forscht zu digitaler Transformation.
Möglichkeiten von Audio-Deepfakes durch KI stark weiterentwickelt
Vor allem Audio-Deepfakes oder Voice Fakes – also gefälschte Audiospuren, auf denen Menschen sprechen – hätten durch die KI-Entwicklung einen großen Schritt gemacht, sagt Josef Holnburger. Er ist Geschäftsführer des Centers für Monitoring, Analyse und Strategie, kurz CeMAS, das zu Desinformation und Verschwörungstheorien forscht und aufklärt.
„Voice Fakes sind wirklich sehr einfach zu generieren. Es gibt Programme, die erstaunlich gut darin sind, Stimmen zu klonen und damit dann vorgegebene Inhalte zu sprechen“, sagt Holnburger.
Die meisten Programme müssen mit einer Aufnahme der Stimme gefüttert werden, die geklont werden soll. Dieses Ausgangsmaterial wird von der KI analysiert, die darauf basierend den Stimmen-Klon erstellt. Das sei mittlerweile mit sehr wenig Ausgangsmaterial möglich, so Holnburger.
Geklonte Stimme von Jens Riewa spricht auf Demo über Pandemie
Dass solche Audio-Deepfakes für Täuschungen genutzt werden, zeigt auch ein Fall aus dem vergangenen Herbst. Auf Demonstrationen gegen die Covid-Maßnahmen wurde ein mittels KI erstellter Audio-Fake der „Tagesschau“-Sprecher Jens Riewa und Susanne Daubner abgespielt. Nachdem erklingen der „Tagesschau“-Melodie entschuldigt sich der Fake-Riewa für eine angebliche Täuschung der Zuschauer während der Corona-Pandemie. Auch bei Betrugsanrufen oder Schockanrufen kommt die KI-Technologie zum Einsatz.
Audio-Fakes seien besonders tückisch, da sie einen besonders emotionalen Zugang zu Menschen finden, sagt KI-Experte Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin. „Du sprichst den Leuten sozusagen direkt in den Kopf“, sagt Burchardt. Außerdem „versenden“ sich Tonaufnahmen schnell, man schnappt etwas auf, schon ist es weg und man kann eventuell – wie im Fall der Demo – nicht zurückspulen und es sich nochmal anhören.
Auch wenn sich die KI-Audio-Fakes manchmal künstlich oder mechanisch anhören, kann es dennoch schwierig zu erkennen sein, ob man es mit einem Fake zu tun hat.
Alle Tipps, wie Sie KI-Fakes – auch Audio-Deepfakes – erkennen können finden Sie in diesem Artikel.
ChatGPT erstellt täuschend echte Texte und verbessert Bots
Durch die KI generierte Texte wurden ebenfalls bereits für Desinformation eingesetzt. So hat die AfD-Co-Vorsitzende Alice Weidel nach Angaben von „t-online“ eine von einem Parteikollegen mittels KI erstellte Fake-Pressemitteilung des Bundesinnenministeriums für echt gehalten und sich darüber empört.
Auch Betrüger und Verbreiter von Desinformation machen sich zunutze, dass Sprachmodelle wie ChatGPT mittlerweile Texte generieren können, die als maschinell generiert nicht mehr zu erkennen sind. Insbesondere Betreiber von Bot-Netzwerken, also inauthentischen Social-Media-Profilen, die vorgeben, echt zu sein, profitieren davon. Die Verknüpfung mit Sprachmodellen wie ChatGPT lässt ein Fake-Profil deutlich authentischer wirken. „Weil es gut gemacht ist, erkennt man sie nicht mehr als Bots“, sagt Josef Holnburger.
Kommentare, Posts und Profilbeschreibungen können sowohl in hoher Qualität als auch in Masse etwa mit KI-Sprachmodellen erstellt werden. Nach Angaben des US-Justizministeriums und von OpenAI, dem Betreiber von ChatGPT, wurde das Sprachmodell bereits im Zusammenhang mit Bots genutzt.
KI-Bilder von Trump auf Weihnachtsfeier
Donald Trump bei einer Weihnachtsfeier, umringt von schwarzen Frauen und Männern. Auch wenn es diese Szene in echt nie gegeben hat – mit KI-Programmen wie „Midjourney“ oder „Dall-E“ lassen sich durch einen Textbefehl Bilder erstellen, die zumindest auf den ersten Blick mittlerweile sehr nah an echte Fotos herankommen. Unterstützer von Donald Trump posteten die KI-Bilder im Frühjahr dieses Jahres, um zu suggerieren, der Ex-US-Präsident und derzeitige republikanische Präsidentschaftskandidat komme bei schwarzen Wählern gut an.
Auf den zweiten Blick zeigt sich, dass mit den Bildern etwas nicht stimmt: Trumps Finger scheinen Schwimmhäute zu haben, die Schrift auf Kleidungsstücken im Hintergrund besteht nicht aus echten Buchstaben, Körperteile sind deformiert. Klassische Indizien, wenn es sich um ein KI-generiertes Bild handelt. Doch solche „Fehler“ in den KI-Bildern würden mit der fortlaufenden Weiterentwicklung der KI-Modelle weniger, da sind sich die Experten Burchardt und Holnburger einig. Worauf man dennoch achten kann, können Sie in diesem Artikel lesen.