Immer mehr KI-Videos erobern die Sozialen Medien. Foto: IMAGO/Westend61

Immer mehr täuschend echte KI-Videos kursieren im Internet. Ein Experte erklärt, wie man sie erkennt und warum sie gefährlich sein können.

Eine Meerestiertrainerin soll bei einer Orca-Show getötet worden sein – behauptet ein Video, das auf den Sozialen Medien kursiert. Zu sehen sind die blutigen Arme der angeblichen Jessica Radcliffe im Maul des Orcas. Nutzer auf TikTok, Facebook und X reagierten schockiert. Doch schnell wird klar: Das Video ist gefälscht. Weder die genannte Person, noch der „Pacific Blue Marine Park“, in dem sich der Vorfall ereignet haben soll, existieren, offizielle Berichte fehlen ebenfalls.

Immer mehr KI-Videos erobern Social Media

Doch nicht nur das Orca-Video kursiert in den Sozialen Medien – auch andere KI-generierte Inhalte verbreiten sich zunehmend. Dazu gehören etwa eine Kaninchenfamilie, die nachts auf einem Trampolin hüpft, turmspringende Pferde, Nachrichtensprecher in Katastrophengebieten oder gefälschte Szenen mit Weltpolitikern wie Donald Trump. Die Videos wirken verblüffend real – doch wie lässt sich ein KI-Fake erkennen? Und wie können sich Nutzer vor der wachsenden Flut gefälschter Inhalte schützen? Ein Experte klärt auf.

@dead_000010101 jumping bunnies ai #future, #ai, #innovation, #technology, #funny #veo3 ♬ Jet2 Advert - ✈️A7-BBH | MAN 🇬🇧

Ob man Fakes direkt erkennen kann, hängt stark vom Medium und der Qualität der verwendeten KI ab. „Frühe Bildgeneratoren machten oft auffällige Fehler – etwa Personen mit sechs Fingern oder Brillen, die mit dem Gesicht oder den Haaren verschmolzen waren“, erklärt Dr. Nicolas Müller, Senior Machine Learning Engineer am Fraunhofer-Institut AISEC in München im Gespräch mit unserer Redaktion. Solche Unstimmigkeiten konnten Hinweise auf eine Fälschung sein. Doch die Modelle werden immer besser, und bei hochwertigen KI-generierten Bildern sind solche Fehler kaum noch sichtbar.

Unstimmigkeiten können Hinweise für Fake-Videos sein

Videos sind komplexer zu fälschen als Bilder, da sie aus vielen Einzelbildern und einer Audiospur bestehen. Deepfakes lassen sich deshalb manchmal noch durch unrealistische Bewegungen oder visuelle Fehler erkennen.

Immer mehr Deepfakes kursieren im Internet. Foto: IMAGO/Christian Ohde

Bei Audios ist die Unterscheidung schwieriger: KI-Modelle erzeugen täuschend echte Stimmen – besonders bei neutralen Aussagen. „Emotionen wie Wut oder Trauer sind für die KI teilweise noch schwerer darstellbar“, so Müller.

Deepfakes entstehen heute laut ihm nicht nur durch staatliche Akteure oder organisierte Gruppen, sondern zunehmend auch durch Einzelpersonen oder Content Creator, die mit KI-generierten Inhalten Klicks und Einnahmen erzielen wollen. Entsprechende Tools und Plattformen sind leicht verfügbar und oft kostenpflichtig – teilweise reichen bereits geringe technische Kenntnisse, um sie zu bedienen.

Experte warnt vor Deepfakes aus dem politischen Bereich

Besonders gefährlich wird es, wenn manipulierte Inhalte politische Entscheidungen oder Wahlen beeinflussen. Solche Inhalte können nachhaltig Meinungen prägen – selbst dann, wenn sie später als Fälschung enttarnt werden, warnt der Experte.

„Die beste Lösung wäre, dass Plattformen selbst Maßnahmen ergreifen und KI-generierte Inhalte verpflichtend kennzeichnen“, sagt Müller. Die Video-Plattform TikTok etwa hat Richtlinien für den Umgang mit KI-generierten Inhalten eingeführt, um Transparenz und Authentizität zu fördern. Inhalte können auf freiwilliger Basis entweder manuell mit einem Creator-Label oder automatisch durch TikTok gekennzeichnet werden – etwa bei erkannten KI-Effekten oder Metadaten.

Wichtige Einstellung bei TikTok und Co. beachten

Die Kennzeichnung kann direkt in den „Post-Einstellungen“ erfolgen, sowohl bei Fotos als auch bei Videos. Verstöße lassen sich über die App oder den Browser melden. Die Realität zeigt jedoch, dass nicht jedes Video entsprechend gekennzeichnet wird.

Wichtig sei, sich nicht auf vermeintliche Checklisten zu verlassen – es gibt keine sicheren Merkmale zur Erkennung von KI-Videos, so der Experte aus München. Frühere Fehler wie unpassende Hauttöne oder auffällige Mundbewegungen können Hinweise sein, sind aber keine Garantie. Der beste Schutz bleibt die kritische Prüfung: Herkunft, Absicht und Kontext des Inhalts genau hinterfragen, erklärt Müller.

Zudem bietet das Fraunhofer-Institut AISEC ein kostenloses Tool an, das Video-Links von YouTube, Instagram und X auf Deepfakes überprüft.