Perfekte Fake-Videos werden von künstlicher Intelligenz erkannt
Perfekte Fake-Videos werden von künstlicher Intelligenz erkannt
Anonim
Die Uraufführung der Oper über die Vetung von Litvinenko beginnt in England
Die Uraufführung der Oper über die Vetung von Litvinenko beginnt in England

Vor einem Jahr half Manish Agrawala aus Stanford bei der Entwicklung einer Lippensynchronisationstechnologie, die es Videoeditoren ermöglichte, die Worte der Sprecher fast unmerklich zu ändern. Das Tool könnte leicht Wörter einfügen, die eine Person nie gesprochen hat, selbst mitten in einem Satz, oder Wörter löschen, die sie gesagt haben. Alles wird mit bloßem Auge und sogar für viele Computersysteme realistisch aussehen.

Dieses Tool hat es viel einfacher gemacht, Fehler zu beheben, ohne ganze Szenen neu zu drehen, und hat auch Fernsehsendungen oder Filme für verschiedene Zielgruppen an verschiedenen Orten angepasst. Aber diese Technologie hat auch beunruhigende neue Möglichkeiten für schwer zu findende gefälschte Videos geschaffen, mit der klaren Absicht, die Wahrheit zu verzerren. In einem kürzlich veröffentlichten Video der Republikaner wurde beispielsweise eine rauere Technik für ein Interview mit Joe Biden verwendet.

In diesem Sommer stellten Agrawala und Kollegen von Stanford und UC Berkeley einen auf künstlicher Intelligenz basierenden Ansatz für die Lippensynchronisationstechnologie vor. Das neue Programm erkennt mehr als 80 Prozent der Fälschungen akkurat und erkennt kleinste Abweichungen zwischen den Lauten von Menschen und der Form ihres Mundes.

Aber Agrawala, Direktor des Stanford Institute for Media Innovation und Professor für Informatik an der Forest Baskett, die auch dem Stanford Institute for Human-Centered Artificial Intelligence angehört, warnt davor, dass es keine langfristige technische Lösung für Deep Fakes gibt.

So funktionieren Fälschungen

Es gibt legitime Gründe für die Videomanipulation. Jeder, der beispielsweise eine fiktive Fernsehsendung, einen Film oder einen Werbespot dreht, kann Zeit und Geld sparen, indem er digitale Tools verwendet, um Fehler zu korrigieren oder Skripte anzupassen.

Das Problem entsteht, wenn diese Tools bewusst eingesetzt werden, um falsche Informationen zu verbreiten. Und viele der Techniken sind für den durchschnittlichen Betrachter unsichtbar.

Viele Deep-Fake-Videos basieren auf Face-Swaps, bei denen das Gesicht einer Person buchstäblich mit dem Video einer anderen Person überlagert wird. Aber während Gesichtswechsler-Tools überzeugend sein können, sind sie relativ grob und hinterlassen normalerweise digitale oder visuelle Artefakte, die ein Computer erkennen kann.

Auf der anderen Seite sind Lippensynchronisationstechnologien weniger sichtbar und daher schwieriger zu erkennen. Sie manipulieren einen viel kleineren Teil des Bildes und synthetisieren dann Lippenbewegungen, die genau der Mundbewegung einer Person entsprechen, wenn sie bestimmte Wörter spricht. Laut Agrawal kann ein gefälschter Produzent eine Person dazu bringen, alles zu „sagen“, wenn genügend Proben des Bildes und der Stimme einer Person vorhanden sind.

Fälschungserkennung

Besorgt über den unethischen Einsatz solcher Technologien arbeitete Agrawala mit Ohad Freed, einem Doktoranden in Stanford, an der Entwicklung eines Erkennungstools; Hani Farid, Professor an der University of California, Berkeley School of Information; und Shruti Agarwal, Doktorandin in Berkeley.

Zunächst experimentierten die Forscher mit einer rein manuellen Technik, bei der Beobachter Videomaterial untersuchten. Es funktionierte gut, aber in der Praxis war es arbeits- und zeitaufwendig.

Die Forscher testeten dann ein auf künstlicher Intelligenz basierendes neuronales Netzwerk, das die gleiche Analyse nach dem Videotraining mit dem ehemaligen Präsidenten Barack Obama viel schneller durchführen würde. Das neuronale Netzwerk erkannte mehr als 90 Prozent von Obamas eigener Lippensynchronisation, obwohl die Genauigkeit für andere Sprecher auf etwa 81 Prozent sank.

Ein echter Test der Wahrheit

Die Forscher sagen, ihr Ansatz sei nur ein Teil des Katz-und-Maus-Spiels. Wenn sich die Techniken der tiefen Fälschung verbessern, hinterlassen sie noch weniger Schlüssel.

Letztendlich, sagt Agrawala, besteht das eigentliche Problem nicht so sehr darin, zutiefst gefälschte Videos zu bekämpfen, sondern vielmehr Desinformation zu bekämpfen. Tatsächlich, stellt er fest, entstehen viele der Fehlinformationen aus der Verfälschung der Bedeutung dessen, was die Leute tatsächlich gesagt haben.

„Um Fehlinformationen zu reduzieren, müssen wir die Medienkompetenz verbessern und Rechenschaftssysteme entwickeln“, sagt er. "Dazu können Gesetze gehören, die die absichtliche Produktion von Fehlinformationen und die Folgen ihrer Verletzung verbieten, sowie Mechanismen zur Beseitigung des daraus resultierenden Schadens."

Empfohlen: