Buckelwal Timmy soll wieder schwimmen – und weil sich das anscheinend so viele Leute wünschen, schwappt seit Tagen eine Welle KI-generierter Rettungsideen durchs Netz. Da wird der Wal mit Hubschraubern auf einen Flugzeugträger gehievt, dort abgeschrubbt und wieder ins Meer entlassen. In anderen Clips soll ein riesiges Planschbecken helfen. Im Netz scheint die Rettung eines tonnenschweren Meeressäugers nur eine Frage von Fantasie, Plastikfolie und ein bisschen gutem Willen zu sein.
🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in „Der KI-Podcast“ – dem Podcast von BR24 und SWR.
Manche Nutzerinnen und Nutzer teilten solche Videos offenbar nicht ironisch, sondern im Glauben, darin stecke eine gute, umsetzbare Idee. Das liegt nicht zuletzt daran, dass künstliche Intelligenz Bilder produziert, die völlig plausibel wirken, auch wenn sie physikalisch, biologisch oder logistisch völliger Unsinn sind.
KI-Müll schafft Aufmerksamkeit
Ganz sinnlos war der digitale Wal-Wirbel trotzdem nicht. Die vielen Songs, Bilder und Videos, die mit Hilfe von künstlicher Intelligenz ins Netz gespült worden sind, haben dazu beigetragen, dass sich sehr viele Menschen für den Wal Timmy interessierten. Aus einem lokalen Rettungsfall wurde ein virales Thema.
Positive Folgen: viel Aufmerksamkeit, die Druck erzeugt hat, Hilfe zu mobilisieren. Vielleicht sogar ein bisschen mehr Bewusstsein für die Natur, wenn ein Tierschicksal nicht mehr einfach ignoriert wird. Auf jeden Fall hat der Timmy-Hype gezeigt, wie KI-Inhalte Themen in die Öffentlichkeit bringen, die sonst wohl weniger sichtbar geblieben wären.
Wenn Bilder nur noch Stimmung machen
Timmy liefert dabei ein gutes Beispiel für ein größeres Problem: KI-Slop, also massenhaft und ohne großen Aufwand erzeugter KI-Müll. Der breitet sich in sozialen Medien zunehmend aus. Solche Inhalte haben gar nicht mehr den Anspruch, wahr zu sein. Sie sollen nur einen „Vibe“ erzeugen. Eine Atmosphäre, ein allgemeines Gefühl.
Slopaganda nennen das die Wissenschaftler Michał Klincewicz und Mark Alfano in einer ausführlichen Arbeit zu diesem Phänomen (externer Link). Bestes Beispiel: Trumps Jesus-Bild. Wer sagt schon ernsthaft: Nein, Trump ist nicht der Messias. Faktenchecks haben keinen Sinn mehr, wenn es gar nicht um Fakten geht, sondern um Nostalgie, Spott oder Empörung.
Was KI-Müll mit unserer Debatte anstellt
Die größere Sorge: Wenn immer mehr Menschen Nachrichten, Politik und Weltgeschehen in kurzen, emotionalen KI-Häppchen wahrnehmen, gehen Zusammenhänge und der Überblick verloren. Ursache und Wirkung verschwinden hinter Bildern, die schnell geklickt und genauso schnell vergessen sind.
Was hängen bleibt ist das Gefühl etwas zu wissen – ohne den Kontext zu kennen. Das Gegenkonzept: „kognitive Sicherheit“: So wie man Computer gegen Angriffe schützt, muss man auch den eigenen Kopf schützen – durch Medienkompetenz, kritisches Denken und die Fähigkeit, sich aus dem Scrollen zu lösen. Dazu gehört auch, längere Texte zu lesen und der Komplexität nicht immer auszuweichen.

