„Wir sind bereits an einem Punkt angelangt, an dem man den Unterschied zwischen Deepfakes und dem Echten nicht mehr erkennen kann“, sagt Professor Hao Li von der University of Southern California gegenüber der BBC.
„Das ist beängstigend.“
Wir sind bei der Deepfake-Installation des Informatikers auf dem Weltwirtschaftsforum in Davos, die einen Hinweis darauf gibt, was er meint.
Wie andere Deepfake-Tools erstellt seine Software computer-manipulierte Videos von Menschen – oft Politikern oder Prominenten -, die echt aussehen sollen.
Meistens handelt es sich dabei um „Face Swapping“, bei dem das Gesicht eines Prominenten mit dem Bildnis einer anderen Person überlagert wird.
Während ich sitze, filmt eine Kamera mein Gesicht und projiziert es auf einen Bildschirm vor mir; meine Gesichtszüge werden dann digital abgebildet.
- Was sind Deepfakes?
Nacheinander werden die Gesichter des Schauspielers Leonardo DiCaprio, der ehemaligen britischen Premierministerin Theresa May und des Fußballspielers Lionel Messi in Echtzeit über das Bild meines eigenen Gesichts gelegt – ihre Gesichtszüge und ihre Mimik gehen nahtlos in meine über.
Die Effekte sind zwar beeindruckend, aber eher komisch als unheimlich, könnten aber einige Zuschauer verwirren. Als mir der Professor jedoch ein anderes Deepfake-Video zeigt, an dem er gearbeitet hat und das noch nicht der Öffentlichkeit vorgestellt wurde, verstehe ich vollkommen, was er meint.
Es zeigt einen berühmten Staatschef, der eine Rede hält, und ist von der Realität nicht zu unterscheiden.
„Denken Sie nur an das Potenzial für Missbrauch und Desinformation, das wir mit dieser Art von Video sehen könnten“, sagt Prof. Li.
Die Fälschungen gerieten erst 2017 in die Schlagzeilen, als im Internet grob produzierte Videos auftauchten, bei denen in der Regel Gesichter von Prominenten ausgetauscht oder manipuliert wurden.
Einige waren Nachahmungen von bekannten Persönlichkeiten, die von Imitatoren oder Komikern gesprochen wurden. In der überwiegenden Mehrheit der Fälle wurden jedoch die Gesichter berühmter Personen mit denen von Pornostars überlagert, sehr zur Beunruhigung der Betroffenen.
Seitdem hat sich die Technologie – die auf komplexen Algorithmen für maschinelles Lernen beruht – rasch weiterentwickelt, und Deepfakes sind immer häufiger geworden. Einige wurden als „Fake News“ verwendet. Andere wurden in Fällen von Online-Betrug angeführt. Facebook hat sie sogar von seiner Plattform verbannt, weil es befürchtet, dass sie zur Manipulation von Menschen eingesetzt werden könnten.
Prof. Li hat seine eigene Software nie entwickelt, um Menschen zu täuschen, und wird sie ausschließlich an Unternehmen verkaufen, sagt er. Aber er glaubt, dass ein gefährlicher Geist aus der Flasche entweichen könnte, wenn die Deepfake-Technologie in die falschen Hände gerät – und die Demokratie in Gefahr ist.
„Das erste Risiko besteht darin, dass Menschen die Tatsache, dass es Deepfakes gibt, bereits nutzen, um echte Videobeweise zu diskreditieren. Auch wenn es Aufnahmen gibt, auf denen man etwas tut oder sagt, kann man sagen, dass es ein Deepfake war, und es ist sehr schwer, das Gegenteil zu beweisen.“
Politiker auf der ganzen Welt wurden bereits beschuldigt, diese Masche zu verwenden, darunter Joao Doria, der Gouverneur von Sao Paulo in Brasilien. Im Jahr 2018 behauptete der verheiratete Politiker, ein Video, das ihn angeblich bei einer Orgie zeigt, sei ein Deepfake – und niemand konnte das Gegenteil beweisen.
Die größere Bedrohung ist jedoch das Potenzial, dass Deepfakes in politischen Desinformationskampagnen eingesetzt werden, sagt Prof. Li. „Wahlen werden bereits mit gefälschten Nachrichten manipuliert. Stellen Sie sich vor, was passieren würde, wenn man noch ausgeklügelte Deepfakes hinzufügt.“
So weit sind Clips wie der von Frau Pelosi nicht schwer als Fälschungen zu erkennen. Aber wenn man es geschickt anstellt, so sagt er, könnte man Politikern Worte in den Mund legen, ohne dass es jemand merkt – oder zumindest wäre es zu spät, bis es korrigiert wird.
„Das könnte in Entwicklungsländern, wo die digitale Kompetenz geringer ist, noch gefährlicher sein. Dort könnte man wirklich beeinflussen, wie die Gesellschaft reagieren würde.
Einige, wie das niederländische Cybersicherheitsunternehmen Deeptrace, das die Technologie verfolgt, sind jedoch der Meinung, dass die Panik über Deepfakes übertrieben ist.
Der Direktor Giorgio Patrini sagt, dass es relativ einfach ist, ein überzeugendes Deepfake zu erstellen, wenn die nachgeahmte Person jemand ist, den man nicht kennt. Aber wenn es sich um einen Politiker oder einen Prominenten handelt, der Millionen von Menschen bekannt ist, ist es viel schwieriger. Die Menschen sind einfach zu sehr mit ihren Stimmen und ihrer Mimik vertraut“, erklärt er gegenüber der BBC.
„Man müsste auch in der Lage sein, ihre Stimme zu imitieren und sie dazu zu bringen, Dinge zu sagen, die sie glaubwürdig sagen würden, was die Möglichkeiten einschränkt.“
„Dunkler Tag“
Außerdem räumt er ein, dass die ausgefeiltesten – und gefährlichsten – Deepfake-Tools zwar als Open Source im Internet frei verfügbar sind, aber dennoch Fachwissen erfordern, um sie einzusetzen. „Das soll nicht heißen, dass sie nicht in größerem Umfang kommerziell genutzt und zugänglich gemacht werden, aber ich glaube nicht, dass das so schnell passieren wird. Ich denke, es wird Jahre dauern.“
Dennoch glaubt Patrini, dass ununterscheidbare Fälschungen irgendwann gang und gäbe sein werden und als ernsthafte politische Waffe eingesetzt werden könnten.
Einen Vorgeschmack darauf gab Facebook im Dezember, als es ein Netzwerk von mehr als 900 gefälschten Konten von seinen Plattformen entfernte, die angeblich betrügerische Praktiken anwandten, um rechtsgerichtete Ideologie online zu verbreiten.
Die Konten hatten insbesondere gefälschte Profilfotos mit falschen Gesichtern verwendet, die mit Hilfe künstlicher Intelligenz erstellt wurden.
Beide, Prof. Li und Deeptrace, haben Tools zur Erkennung von Deepfakes entwickelt, obwohl sie zugeben, dass Cyberkriminelle unermüdlich daran arbeiten werden, diese zu umgehen.
Patrini ist jedoch optimistisch: „Selbst wenn Deepfakes so ausgeklügelt sind, dass Menschen sie nicht unterscheiden können, glaube ich, dass wir in der Lage sein werden, ausgeklügeltere Tools zu entwickeln, um sie zu erkennen. Es ist wie bei Antiviren-Software – sie wird ständig aktualisiert und verbessert.“