“We zijn al op het punt dat je het verschil niet meer kunt zien tussen deepfakes en het echte werk,” vertelt professor Hao Li van de University of Southern California aan de BBC.
“Het is beangstigend.”Het is eng.”
We zijn bij de deepfake-installatie van de computerwetenschapper op het World Economic Forum in Davos, die een hint geeft van wat hij bedoelt.
Net als andere deepfake-tools, creëert zijn software computer gemanipuleerde video’s van mensen – vaak politici of beroemdheden – die zijn ontworpen om echt te lijken.
Het gaat hierbij meestal om “gezichtsverwisselingen”, waarbij het gezicht van een beroemdheid over het evenbeeld van iemand anders wordt gelegd.
Zoals ik zit, filmt een camera mijn gezicht en projecteert het op een scherm voor me; mijn gelaatstrekken worden vervolgens digitaal in kaart gebracht.
- Wat zijn deepfakes?
De ene na de andere keer worden de gezichten van acteur Leonardo DiCaprio, de voormalige Britse premier Theresa May en voetballer Lionel Messi in realtime over het beeld van mijn eigen gezicht gelegd – hun gelaatstrekken en uitdrukkingen smelten naadloos samen met die van mij.
De effecten zijn weliswaar indrukwekkend, maar eerder komisch dan sinister, maar zouden sommige kijkers in verwarring kunnen brengen. Wanneer de professor me echter een andere deepfake-video laat zien waaraan hij heeft gewerkt en die nog moet worden onthuld aan het publiek, begrijp ik helemaal wat hij bedoelt.
Het toont een beroemde wereldleider die een toespraak houdt en is onmogelijk van echt te onderscheiden.
“Denk alleen al aan het potentieel voor misbruik en desinformatie dat we met dit soort dingen zouden kunnen zien,” zegt professor Li.
Deepfakes kwamen pas in 2017 in het nieuws nadat ruw geproduceerde video’s op het internet begonnen op te duiken, waarbij meestal het gezicht van beroemdheden werd verwisseld of gemanipuleerd.
Sommige waren send-ups van bekende figuren, ingesproken door impressionisten of komieken. Maar in de overgrote meerderheid van de gevallen werden de gezichten van bekende personen over die van pornosterren gelegd, tot grote ongerustheid van de doelgroepen.
Sindsdien heeft de technologie – die berust op complexe algoritmen voor machinaal leren – zich snel ontwikkeld en zijn deepfakes steeds gangbaarder geworden. Sommige zijn gebruikt als “nepnieuws”. Andere zijn genoemd in gevallen van online fraude. Facebook heeft ze zelfs van zijn platform geweerd uit angst dat ze zouden kunnen worden gebruikt om mensen te manipuleren.
Prof Li’s eigen software is nooit ontworpen om mensen te misleiden en zal uitsluitend aan bedrijven worden verkocht, zegt hij. Maar hij denkt dat een gevaarlijke geest op het punt staat uit de fles te ontsnappen als deepfake-technologie in verkeerde handen valt – en de democratie wordt bedreigd.
“Het eerste risico is dat mensen het feit dat deepfakes bestaan al gebruiken om echt videobewijs in diskrediet te brengen. Ook al zijn er beelden van jou terwijl je iets doet of zegt, je kunt zeggen dat het een deepfake was en het is heel moeilijk om het tegendeel te bewijzen.”
Politici over de hele wereld zijn al beschuldigd van het gebruik van deze truc, een daarvan was Joao Doria, de gouverneur van Sao Paulo in Brazilië. In 2018 beweerde de getrouwde politicus dat een video waarop hij te zien zou zijn tijdens een orgie een deepfake was – en niemand heeft onomstotelijk kunnen bewijzen dat dit niet het geval was.
Het grotere gevaar is echter het potentieel voor deepfakes om te worden gebruikt in politieke desinformatiecampagnes, zegt professor Li. “Verkiezingen worden al gemanipuleerd met nepnieuws, dus stel je voor wat er zou gebeuren als je geavanceerde deepfakes toevoegt aan de mix?”
Tot nu toe zijn clips zoals die van mevrouw Pelosi niet moeilijk te herkennen als vervalsingen. Maar als het subtiel wordt gedaan, zegt hij, kunnen mensen beginnende woorden in de mond van politici te leggen en niemand zou het weten – of in ieder geval tegen de tijd dat het gecorrigeerd is, zou het te laat zijn.
“Het zou nog gevaarlijker kunnen zijn in ontwikkelingslanden waar de digitale geletterdheid beperkter is. Daar zou je echt invloed kunnen hebben op hoe de samenleving zou reageren. Je zou zelfs dingen kunnen verspreiden die mensen het leven kosten.”
Maar sommigen, zoals het Nederlandse cyberbeveiligingsbedrijf Deeptrace, dat de technologie volgt, vinden dat de paniek over deepfakes is overdreven.
Directeur Giorgio Patrini zegt dat het relatief eenvoudig is om een overtuigende deepfake te maken als de persoon die wordt nagebootst iemand is die je niet kent. Maar als het een politicus is of een beroemdheid die miljoenen mensen kennen, is het veel moeilijker. “Mensen zijn gewoon te vertrouwd met hun stem en gezichtsuitdrukkingen,” vertelt hij de BBC.
“Je zou ook in staat moeten zijn om hun stem na te bootsen en ze dingen te laten zeggen die ze geloofwaardig zouden zeggen, wat beperkt wat je kunt doen.”
‘Donkere dag’
Bovendien, terwijl hij accepteert dat de meest geavanceerde – en gevaarlijke – deepfake tools vrij beschikbaar zijn in open source op het internet, zegt hij dat ze nog steeds expertise vereisen om te gebruiken. “Dat wil niet zeggen dat ze niet op grotere schaal beschikbaar en toegankelijk zullen worden, maar ik denk niet dat het zo snel zal gaan. Ik denk dat het jaren zal duren.”
Niettemin denkt de heer Patrini dat niet van echt te onderscheiden deepfakes uiteindelijk gemeengoed zullen worden en als een serieus politiek wapen zouden kunnen worden gebruikt.
Als voorproefje van hoe dit eruit zou kunnen zien, verwijderde Facebook in december een netwerk van meer dan 900 nepaccounts van zijn platforms die naar verluidt misleidende praktijken gebruikten om rechtse ideologie online te pushen.
Notably, de accounts hadden valse profielfoto’s van nepgezichten gebruikt die waren gegenereerd met behulp van kunstmatige intelligentie.
Zowel Prof Li als Deeptrace hebben deepfake-detectietools ontwikkeld, hoewel ze toegeven dat cybercriminelen onvermoeibaar zullen proberen ze te omzeilen.
De heer Patrini is echter optimistisch: “Zelfs als deepfakes zo geavanceerd zijn dat mensen het verschil niet kunnen zien, geloof ik dat we in staat zullen zijn om geavanceerdere tools te bouwen om ze te spotten. Het is net als anti-virussoftware – die zal steeds worden bijgewerkt en verbeterd.”