Deepfake: Wie gefährlich sind manipulierte Videos?

19.02.2020  — Jasmin Dahler.  Quelle: Verlag Dashöfer GmbH.

Künstliche Intelligenz und Machine Learning ermöglichen täuschend echt wirkende Bild- und Ton-Fälschungen. Die Gefahren für Bürger und Firmen sind enorm. Doch lassen sich die Fälschungen überhaupt noch erkennen?

Von Satire zum Porno

Seit 2017 ist Deepfake ein gebräuchlicher Ausdruck für die Technik, mithilfe von Künstlicher Intelligenz täuschend echt wirkende Bilder oder Videos herzustellen. Deepfakes werden in der Kunst als Mittel der Zuspitzung genutzt, um sich etwa über popkulturelle Dinge lustig zu machen. So veröffentlichte der US-amerikanische Kabarettist Jordan Peele gemeinsam mit BuzzFeed im April 2018 ein Deepfake-Video, in dem Barack Obama vor den Gefahren manipulierter Videos warnte und ganz nebenbei seinen Nachfolger Donald Trump als „kompletten Volltrottel“ bezeichnete.

Doch nicht nur die Satire bedient sich dieser Methode der Video Manipulation. Fast alle Deepfakes, die sich im Internet finden, sind Pornos. Auf der Plattform reddit postete ein Nutzer 2017 Deepfake-Videos, in denen die Gesichter von Prominenten auf die Körper von Pornodarsteller*innen hineingerechnet waren. So waren die Wonder-Woman-Darstellerin Gal Gadot beim Sex mit ihrem Stiefbruder und andere Schauspielerinnen wie Emma Watson, Katy Perry, Taylor Swift oder Scarlett Johansson zu sehen. Andere Reddit-Nutzer verbesserten das Vorgehen des Erstentwicklers, womit es zunehmend schwieriger wurde, gefälschte Inhalte zu entlarven.

Reddit verbannte zwar die Videos nach kurzer Zeit von seiner Plattform, aber bereits Ende 2018 startete die App FakeApp, mit der Nutzer sehr leicht in Videos Gesichter austauschen können. Die Folge: viele gefälschte Unterhaltungsinhalte, aber auch eine Flut von pornografischen Filmen, in die nicht nur die Gesichter von prominenten Frauen hineinmontiert wurden. Sondern wer noch?

Auch Unternehmen sind betroffen

Die Porno-Branche war schon oft ein Vorreiter und ein Experimentierfeld für neue Technologien. So auch für Streaming oder Virtual Reality, die dann später ihren Weg in alle möglichen Bereiche gefunden haben. Stellen Sie sich zum Beispiel vor, ein Mensch mit kriminellen Ambitionen nutzt ein Deepfake-Video, um einem Firmenchef Worte in den Mund zu legen und somit die Aktienkurse ins Schwanken zu bringen.

Aber es geht noch weiter. Deepfakes könnten dazu genutzt werden, um Unternehmen oder einzelne Mitarbeiter*innen zu erpressen, indem zum Beispiel jemand in eine pikante oder sogar strafbare Situation hinein retuschiert wird. Doch es Bedarf noch nicht einmal eines Videos, um einem Unternehmen zu schaden. Stellen Sie sich vor, Betrüger*innen nutzen nur die Stimme eines Top-Mangers, die mit Hilfe einer KI nachgebildet wurde, um am Telefon falsche Anweisungen zu geben. Können Sie sich nicht vorstellen? Ist leider bereits passiert. So glaubte ein Mann, mit seinem Boss zu telefonieren, und überwies 220.000 Euro. Das gesamte Geld war schließlich weg.

Was kann man tun?

Deepfakes zu erkennen, wird immer schwieriger. Selbst Profis haben immer wieder Probleme, Deepfake-Videos zu erkennen. Daher wird vermehrt auf Technik gesetzt, die das technische Problem bekämpfen soll. Hany Farid, Informatikprofessor an der Universität Berkeley, ist einer der Forscher, die mit Hochdruck daran arbeiten. Licht und Schatten, Winkel und Unschärfen der Gesichtszüge, Kleidung und Haare, und wie sich der Gesichtsteint subtil verändert, wenn Blut durch Gefäße gepumpt wird – all das kann den Forensikern Aufschluss über die Echtheit eines Videos geben.

Zumindest für einen kurzen Zeitraum. Denn während die Forensikwerkzeuge weiterentwickelt werden, entwickeln sich die Deepfake-Videos auch weiter. Im Sommer 2018 meinte ein US-Forscher, dass sich die gefälschten Videos ganz einfach erkennen ließen. Deepfakes blinzelten nicht oder nur sehr selten. Es dauert nicht lange, da erschienen die ersten Deepfake-Videos, in denen die Personen korrekt blinzelten und keine Auffälligkeiten mehr in diesem Bereich zeigten.

Doch selbst wenn Deepfake-Videos immer korrekt erkannt werden würden, ist es fast unmöglich, Deepfakes, die bereits im Netz sind, wieder einzufangen. Es gibt kaum Möglichkeiten sich zu schützen, außer darauf zu achten, nicht so viele Bilder und Videos von sich ins Netz zu stellen. Denn Deepfakes funktionieren natürlich nur, wenn sie genügend Daten haben.

Quellen und Hintergründe:

nach oben