Deepfakes sind ein Problem, das nicht nur prominente Frauen betrifft. Auch ältere Menschen kommen zunehmend mit Deepfakes in Berührung, selbst, wenn sie gar nicht aktiv im Netz surfen. Wie sieht das konkret aus und wie kann man sich davor schützen?
Er habe Angst vor KI, so Fred Odlozik. Der 79-Jährige befürchtet: „Da werden vermutlich wahnsinnig viele Leute wahnsinnig viel Geld verlieren“. Das Problem an den neuen Technologien sei, dass sie “zu perfekt“ erscheinen.
Tatsächlich sind unter anderem Betrügereien mithilfe von Stimmimitation auf dem Vormarsch. Man spricht hier vom Enkeltrick 2.0. Alexander Pfeiffer, Leiter des Kompetenzzentrums für Emergente Technologien forscht an der Donau Universität Krems zu Deepfakes und KI-Manipulation.
Die schluchzende Stimme der Enkelin wird zur Falle
„Stellen Sie sich vor, ihr Telefon klingelt und sie hören die panische Stimme ihrer Tochter oder ihres Enkels, die schluchzend von einem Unfall berichtet und dringend Geld für eine Kaution benötigt. Die Stimme ist nicht nur ähnlich, sie ist für sie in dem Moment die Stimme, die sie kennen.“ Mithilfe von Technologien zur Stimmimitation ist dies mittlerweile möglich.
Den Betrügern reicht ein einziges öffentliches Video, vielleicht ein Geburtstagsgruß – schon lässt sich jede Stimme nachbauen. Die Wachstumsraten von Finanz-Betrugsfällen mithilfe generativer KI sei explodiert, so Pfeiffer. In Amerika habe bereits jeder Vierte einen Anruf mit gefälschter Stimme erlebt.
Die 85 Jahre alte Waldtraut Morawietz fürchtet ebenfalls, auf Deepfakes hereinzufallen. Die Technologien würden immer besser, so die Rentnerin, dagegen sei man nicht gefeit. Aber es gibt einfache Möglichkeiten, den Betrügern nicht auf den Leim zu gehen. „Was ich Familien empfehle, ist die Etablierung eines Sicherheitscodeworts, etwa eine ganz simple Frage wie, ‚Wie heißt unser erster Hamster‘?“, so der Forscher.
Sicherheitscodes und „gesunde paranoide Grundhaltung“
Das Wichtigste sei jedoch eine gesunde, fast schon paranoide Grundhaltung gegenüber Anrufen, die etwas außergewöhnlich seien. Sobald am Telefon eine Notlage geschildert werde, und Geld gefordert werde und der Anruf nicht von einer gewohnten Telefonnummer komme, sollte der erste Impuls sein, „auflegen, nicht den Namen sagen, nicht ja sagen“! Danach solle man zur „Rückrufstrategie“ greifen, also die Person unter der Nummer zurückrufen, die man kenne, so Pfeiffer.
Letzendlich ist dem Experten zufolge jedoch Kommunikation die beste Prävention: „Wir müssen in den Familien über diese Gefahren sprechen, damit jeder von den Aller-Allerkleinsten, bis hin zu den Seniorinnen und Senioren vor dem Thema Deepfakes gewarnt sind.“
Anlagebetrug mit Deepfakes
Denn: Deepfakes begegnen einem auch in anderen Bereichen, beispielsweise beim Thema Aktienkauf. So passierte es etwa dem bekannten Fondsmanager Dirk Müller. In Videos empfiehlt eine KI-Fälschung Müllers Investitionsmöglichkeiten. Daraufhin werden Anleger in eine Whatsappgruppe gelockt und den Anlegern wird empfohlen, in gering gehandelte Aktien zu investieren. Sobald genug Geld investiert wurde, verkaufen die Betrüger ihre Anteile, der Kurs stürzt ab, und die Anleger verlieren ihr Geld.
Müller rät Geschädigten, sich nicht zu schämen. Und immer darauf zu achten, die Original-Quelle aufzusuchen und diese manuell in den Browser einzugeben und nicht über einen Link. Klar ist aber auch: Deepfakes stellen uns vor eine große Herausforderung, der wir nicht immer alleine begegnen werden können. Laut dem Anlagexperten müsse auch die Politik endlich aktiv werden. Sein Appell: „Endlich die Stellschrauben bei Konzernen wie Meta ansetzen! Denn diese verdienen Milliarden mit gefälschten Werbevideos.“
Dirk Müller ist heute Abend um 20:15 zu Gast in der Münchner Runde zum Thema Schockanrufe, Fake-News, sexuelle Gewalt – Was muss jetzt passieren?

