Ist das echt oder KI? Social Media-Videos immer schwerer zu erkennen
Wer auf Social Media Videos schaut, kann seinen Augen nicht immer trauen. Denn nicht alles, was dort gezeigt wird, ist auch echt. KI-generierte Inhalte werden häufiger. Könnte die geplante KI-Kennzeichnungspflicht helfen, sie zu erkennen? Philipp Slusallek vom DFKI in Saarbrücken plädiert für einen anderen Weg.
Eine Möwe entdeckt eine Pommes hinter der Windschutzscheibe eines Autos und pickt mit ihrem Schnabel gegen die Scheibe. Plötzlich zersplittert die Scheibe, ein großes Loch entsteht. Spätestens jetzt ist klar: Dieses Video ist nicht real, sondern vermutlich durch Künstliche Intelligenz (KI) erzeugt worden.
Anteil KI-generierter Videos bei Social Media unklar
Doch so eindeutig wie bei diesem Video ist es in vielen Fällen längst nicht mehr. Denn: "Es wird immer schwerer bis fast unmöglich diese Videos zu erkennen", sagt Philipp Slusallek, Geschäftsführender Direktor des Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) in Saarbrücken und Leiter des Forschungsbereichs Agenten und Simulierte Realität.
Wie hoch der Anteil KI-generierter Videos auf Social Media Plattformen inzwischen sei, sei deshalb schwer zu sagen. Selbst Experten seien oft schon nicht mehr in der Lage, die KI-generierten Videos zu erkennen.
Die einzige Chance sei, auf einen Fehler im Video zu hoffen – etwa eine falsche Anzahl von Fingern bei Personen oder wenn Gegenstände wie zum Beispiel eine Handtasche mitten im Video zwischen zwei Einstellungen die Farbe wechseln, etwa von schwarz zu blau. Solche Inkonsistenzen kämen immer noch vor, allerdings deutlich seltener.
Slusallek glaubt nicht an Besserung durch KI-Kennzeichnung
Dass sich die Situation verbessert, glaubt er nicht. "Das wird nicht besser werden, sondern noch schlechter", prognostiziert er. Slusallek sieht darin eine große Gefahr. "Wir schlittern in eine Welt hinein, in der man das Gefühl hat, nichts ist mehr echt. Wir brauchen deshalb einen Vertrauensanker", ist sich der Professor sicher.
Doch wie könnte dieser aussehen? KI-Inhalte zu kennzeichnen, wie es in festgelegten Fällen im kommenden Jahr Pflicht wird, hält Slusallek jedenfalls nicht für die Lösung. Es bestehe die Gefahr, dass die Regel umgangen werde. "Wir fordern die Diebe auf, ihr Diebesgut erkennbar zu machen."
Echtheitsnachweis fälschungssicherer?
Der Professor plädiert deshalb für den umgekehrten Weg. Nicht KI-generiertes Material sollte gekennzeichnet werden, sondern die Realität. Technisch sei es heute etwa bereits möglich, dass Kamerahersteller solche Echtheitsnachweise bereits in ihren Geräten integrieren.
Im Video könnte es dann etwa oben rechts ein Icon geben, über das die Nutzer Eigenschaften abrufen können, zum Beispiel mit welchem Gerät das Video aufgezeichnet wurde. Slusallek sieht darin eine echte Chance, Vertrauen zu schaffen.
Aber könnten diese Echtheitsnachweise nicht einfach auch gefälscht werden? Das sei sehr schwer, sagt der DFKI-Experte. "Das sind im Prinzip Methoden, die nicht knackbar sind."