Skip to main content

Immer mehr KI-Videos – Fünf Tipps, um KI-generierte Videos zu erkennen

27. Oktober 2025
 

  • Sora 2 heißt das neue KI-Generierungstool von OpenAI, es ermöglicht die KI-Videoproduktion auf einem ganz neuen Level.
  • TikTok, YouTube und auch Instagram werden seit dem Relaunch von Sora 2 mit täuschend echt wirkenden KI-Videos regelrecht überflutet.
  • Die neuen KI-Videos sind auch für Experten oftmals nicht mehr als KI-generiert erkennbar, es gibt aber (noch) ein paar Parameter, um sie zu identifizieren. 

„Sora hat die Fähigkeit, deine Identität, deine Stimme und dein Gesicht zu erfassen und Videos davon zu erstellen, in denen du alles Mögliche tun: verhaftet werden, jemanden bestehlen, jemanden töten, was auch immer. Und das ist ein kleiner Unterschied.“ Hany Farid, KI-Forscher an der Universität Berkeley in Kalifornien im Interview mit dem Spiegel.

Spannende Sekunden beste Videoqualität

Sora 2 heißt die neue Videogenerierungssoftware von OpenAI. Nutzende können in der kostenlosen Version bis zu 15-sekündige Videoclips erzeugen: Ob eine Hund, der als Astronaut im Weltraum schwebt, ein Cowboy, der einen wilden Ritt auf zwei Pferden zeigt oder ein Paddleboarder, der einen eineinhalbfachen Salto zeigt – die Beispiele auf der Sora 2-Vorstellungsseite von OpenAI zeigen, wie realistisch die Szenen von der KI produziert werden. Und sie sind im Gegensatz zu früheren KI-Video-Produktionen jetzt auch mit Sound. Sowohl realistische Hintergrundgeräusche wie auch Sprache oder Soundeffekte sind mit Sora 2 möglich. Der X-Nutzer Billy Woodward zeigt in einem über einminütigen Spot, wie er mit Sora 2 einen Kurzfilm im Pixarstil produziert hat. Seit Anfang Oktober ist das Tool in den USA und Kanada auf dem Markt. In Europa und Deutschland ist Sora 2 offiziell noch nicht verfügbar. Interessenten können das Tool aber über Zweitanbieter wie z.B. HeyGen ausprobieren, die Nutzung ist kostenpflichtig. 

Das Social Media Netzwerk Sora

Parallel zu Sora 2 auf dem Desktop hat OpenAI auch seine App Sora relauncht. Diese ist vorerst nur als iOS-Anwendung verfügbar. OpenAI möchte sie zu einem sozialen Netzwerk ausbauen und so eine Konkurrenz zu TikTok und/oder Meta/Instagram aufbauen. Ähnlich wie bei den bekannten Social-Media-Plattformen sortiert ein Algorithmus auch auf Sora die Videos nach den individuellen Vorlieben, die Nutzerinnen und Nutzer können kommentieren. Der Unterschied: Auf Sora sind nur komplett von KI generierte Videos zu sehen. Über die Cameo-Funktion können zudem „echte Personen“ in die KI-Videos reinproduziert werden bzw. eigene Avatare geschaffen werden. Wenn der Avatar freigegeben wird, kann er von anderen Sora-Nutzenden in neue Videos eingebaut werden. So ist der Avatar von OpenAI Chef Sam Altman in zahllosen KI-Video-Clips zu sehen wie z.B. in diesem YouTube-Short. Die Sora-App ist bislang nur in den USA und Kanada auf Einladung verfügbar und trotzdem schon sehr erfolgreich. Über eine Millionen Mal wurde sie in der ersten fünf Tagen runtergeladen und übertraf damit sogar die Startzahlen von ChatGPT. 

KI Videos ohne Ende

TikTok, YouTube und Co werden aktuell von einer Welle billig KI-generierter Videos geflutet. Eine Studie des strategischen KI-Forschungsprogramms AI Forensic von Juni 2025 hat gezählt, dass in jedem vierten TikTok-Video KI-Inhalte zu finden sind. Bei Instagram sind es deutlich weniger. Der billige KI-Schrott – im englischen AI-Slop genannt – wird laut der Studie größtenteils von AI-Agents produziert. Diese Accounts funktionieren vollautomatisch und produzieren ständig neue KI-Inhalte. Sie sind zu 80 Prozent fotorealistisch und erhöhen – so die Studie – ihr Täuschungspotential. Ben Colman ist Chef und Mitbegründer einer Plattform zu Erkennung von Deepfakes. Er fragt vor dem Hintergrund der aktuellen KI-Content-Flut: „Wenn Menschen, die seit fünf oder sogar 25 Jahren daran arbeiten, nicht zwischen echt und gefälscht unterscheiden können, wie sollen dann durchschnittliche Nutzer:innen oder diejenigen, die manuelle Erkennung verwenden, dies tun?“ 

KI-Videos erkennen

Die neue Generation von Social-Media-Videos sind schon sehr perfekt. Die Tech-Kolumnistin Jelly Jolly hat auf USAtoday aber einige Tipps gegeben, welche Merkmale darauf hinweisen, dass eine Social Media-Video voraussichtlich mit KI produziert wurde:

  • Die Quelle: Wenn ein Link zu einem Video immer nur auf einen – möglicherweise anonymen – TikTok-Account führt, ist das verdächtig.
  • Eine schwammige Stelle: Wenn ein Video einen schwammigen, unscharfen Fleck am Rand oder in einer Ecke des Bildes hat, könnte das ein Hinweis auf ein wegretuschiertes Wasserzeichen sein.
  • Sanfte Kamerabewegung: Menschliche Kameraführung gerade mit dem Smartphone ist häufig an leichtem Wackeln zu erkennen. KI-produzierte Videos hingegen bewegen sich, „als würden sie auf Schienen gleiten“.
  • Die Physik: KI-generierte Videos haben häufig Fehler bei z.B. der realistischen Licht-Schatten-Abbildung. Auch nicht stimmige Reflexionen oder seltsame wirkende Winkel bei Arm- und Fingergelenken sind Zeichen für KI-Produktionen.
  • Bild zu Bild-Analyse: Ein langsames Bild-für-Bild-Durchgehen eines verdächtigen Videos kann Kleinigkeiten sichtbar machen wie ein „schmelzendes“ Logos, ein Buchstabensalat auf einem Schild oder eine plötzlich verschwindende Hand.   

Ihr finaler Tipp: „Gehen Sie davon aus, dass jedes Video, das Sie in den sozialen Medien sehen, von nun an gefälscht ist, bis glaubwürdige Medien es abdecken.“


Das Internet schläft nicht - ständig gibt es neue Trends, neue Plattformen, neue Apps und täglich Veränderungen. Mit uns behaltet ihr den Überblick - denn wir präsentieren Ihnen hier jede Woche was es Neues gibt in der digitalen Welt.

Alle Netzklick-Themen im Überblick