Sowohl seine technische, als auch optische Analyse sprächen gegen einen KI-Klon. Technisch könne er in seiner Analyse kein auf dem Markt gängiges KI-Modell erkennen. Eine individuelle, nicht-öffentliche Software, die technisch anspruchsvoller sei, könnte jedoch von entsprechenden Detektoren nicht erkannt werden.
Gegen KI spricht laut van Ess auch die korrekte Darstellung von Spiegelungen auf dem Schreibtisch sowie die Mimik. „Die subtilen, asymmetrischen Muskelkontraktionen um die Augen und den Mund herum sind für KI zu organisch. Generative Videos haben Schwierigkeiten damit, diese makellosen, sich nicht wiederholenden Mikroexpressionen zu erzeugen“, schreibt van Ess auf X.
Zu ähnlichen Einschätzungen kamen auch Experten, die BBC Verify und der US-Sender NBC News befragt haben. Gegenüber NBC News sagte ein Sprecher des Weißen Hauses, dass „keine KI in diesem Video eingesetzt wurde“.
KI-Fortschritt: Endgültige Klarheit nicht immer möglich
Letztlich bleibt es aber bei Einschätzungen – weil es in Zeiten, in denen Deepfake- und KI-Tools immer fortschrittlicher werden, zunehmend schwieriger wird, echte und künstliche Inhalte auseinanderzuhalten.
Auch Erkennungssoftware für Deepfakes und KI, die der #Faktenfuchs fortlaufend testet, bietet in so einem Fall keine eindeutigen Ergebnisse. Einige Tools geben mit hoher Sicherheit an, dass es sich um einen synthetischen Inhalt handelt, andere geben unklare Einschätzungen oder liefern das Ergebnis, dass es sich um authentische Bilder handelt. Warum die Tools zu den jeweiligen Ergebnissen kommen, lässt sich nicht nachvollziehen.
Solche uneindeutigen Ergebnisse hatte laut BBC auch Patrick Wong, Vorsitzender der Forschungsgruppe „neXt Generation Multimedia Technologies“ an der Open University im Vereinigten Königreich. „Einige Bilder wirkten gefälscht, einige wenige fragwürdig, und das System kam zu dem Ergebnis, dass das Video mit einer Wahrscheinlichkeit von 52 Prozent echt ist“, sagte Wong der BBC.
Henk van Ess schreibt auf X: „Könnte es sich dennoch um KI handeln? Sicher – etwas als echt zu beweisen ist viel schwieriger, als es als Fälschung zu entlarven.“
Fazit
Das vom Weißen Haus veröffentlichte Video von US-Präsident Trump zur Ermordung von Charlie Kirk enthält eine offensichtlich bearbeitete Sequenz. Verformungen an Trumps Fingern und weitere optische Details lassen auf eine Videobearbeitung schließen. Laut Videoexperten wäre eine nachträglich eingefügte Blende plausibel. Was genau für eine Bearbeitung stattgefunden hat, lässt sich aber nicht sagen.
Auf eine Anfrage dazu reagierte das Weiße Haus nicht, gegenüber NBC sagte ein Sprecher lediglich, dass keine KI in dem Video eingesetzt worden sei. Entsprechende Spekulationen, dass es sich um einen Deepfake handeln könnte, verbreiteten sich aufgrund der verformten Finger im Netz. Videoforensiker und Deepfake-Experten halten das auf Basis ihrer Analysen zwar für nicht ausgeschlossen, aber für sehr unwahrscheinlich.

