top of page

KI-Videomodell Sora 2

  • Nik Thomi
  • 20. Okt.
  • 2 Min. Lesezeit

Aktualisiert: 27. Okt.

ree

Bild: OpenAI


Darum geht es

Sora 2 ist das neue Videogenerierungsmodell von OpenAI – und eines der leistungsfähigsten KI-Videotools der Welt. Es verwandelt Text oder Bilder in kurze, realistisch wirkende Videos mit Ton, Bewegung und Kameraeffekten. Gegenüber dem Vorgänger Sora 1 erzeugt es flüssigere Bewegungen, stimmigere Lichtverhältnisse und sogar passende Geräusche. Damit rückt die KI-Videoproduktion einen grossen Schritt näher an reale Filmqualität heran.


Doch der Start verlief turbulent: Sora 2 geriet schnell in die Kritik, weil damit Deepfakes von Prominenten und Verstorbenen kursierten – teilweise in surrealen oder geschmacklosen Szenen. Die Empörung in der Unterhaltungsindustrie war gross, worauf OpenAI reagierte und sein Nutzungsmodell änderte: Statt wie früher ein Opt-out (jegliche Person darf für die Videoerstellung «missbraucht» werden, solange sie sich nicht wehrt) gilt jetzt ein Opt-in. Das heisst, nur wer ausdrücklich zustimmt, kann mit seinem Gesicht oder Namen in solchen Videos erscheinen. Zudem sind eine Vielzahl urheberrechtlich geschützter Inhalte nicht mehr generierbar.


Verfügbarkeit: Aktuell ist Sora 2 offiziell erst in den USA und nur per Einladung verfügbar.



Unsere Meinung

Sora 2 zeigt nicht nur, was technologisch möglich ist – sondern auch, wie dünn die Grenze zwischen Kreativität und Kontrollverlust geworden ist. Die Fortschritte sind spektakulär: Innerhalb weniger Minuten kann das Modell real wirkende Videos erzeugen, die kaum mehr von echten Aufnahmen zu unterscheiden sind. Doch genau darin liegt das Problem. Was bisher Fantasie war, wird jetzt zur Herausforderung für Wahrheit, Vertrauen und Verantwortung.


Die ersten Wochen nach dem Start haben das drastisch gezeigt: Deepfakes mit urheberrechtlich geschützten Charakteren, Prominenten und sogar mit Verstorbenen gingen viral. Menschen wurden ohne Zustimmung in fiktionale oder kompromittierende Szenen gesetzt. Damit überschreitet KI nicht nur moralische und ethische, sondern auch rechtliche Grenzen. Es geht nicht mehr nur darum, ob man etwas machen kann – sondern ob man es darf.


OpenAI hat reagiert und den Modus von Opt-out auf Opt-in umgestellt. Dieser Schritt war überfällig – aber er kam erst, nachdem öffentlicher Druck und mediale Empörung gross genug waren. Die Episode zeigt, dass ethische Leitplanken bei dieser Geschwindigkeit der Innovation oft erst nachträglich gesetzt werden.


Gerade hier in Europa – mit dem AI Act und strengen Datenschutzgesetzen – wird deutlich, warum Vorsicht kein Bremsklotz, sondern eine Notwendigkeit ist. Es geht um Würde, Identität und Vertrauen. Wer ein Gesicht, eine Stimme oder eine Persönlichkeit digital nachbildet, greift in das ein, was uns zutiefst menschlich macht.


Sora 2 ist deshalb nicht nur ein technologischer Meilenstein, sondern ein moralischer Prüfstein. Es zwingt uns, Verantwortung neu zu denken – nicht nur bei OpenAI, sondern bei jedem, der solche Tools nutzt. Denn Macht ohne Bewusstsein schafft Missbrauch. Und was einmal glaubwürdig gefälscht ist, lässt sich nie wieder ganz entkräften.



 
 
 

Kommentare


bottom of page