« Nous sommes déjà au point où vous ne pouvez pas faire la différence entre les deepfakes et les vrais », déclare le professeur Hao Li de l’Université de Californie du Sud à la BBC.
« C’est effrayant. »
Nous sommes à l’installation de deepfake de l’informaticien au Forum économique mondial de Davos, ce qui donne un indice de ce qu’il veut dire.
Comme d’autres outils de deepfake, son logiciel crée des vidéos de personnes – souvent des politiciens ou des célébrités – manipulées par ordinateur et conçues pour paraître réelles.
Le plus souvent, cela implique un « échange de visage », par lequel le visage d’une célébrité est superposé à la ressemblance d’une autre personne.
Alors que je suis assis, une caméra filme mon visage et le projette sur un écran devant moi ; mes traits sont ensuite cartographiés numériquement.
- Que sont les deepfakes ?
Les uns après les autres, les visages de l’acteur Leonardo DiCaprio, de l’ancien Premier ministre britannique Theresa May et du footballeur Lionel Messi sont superposés à l’image de mon propre visage en temps réel – leurs traits et expressions se confondant avec les miens.
Les effets, bien qu’impressionnants, sont plus comiques que sinistres, mais il est faisable qu’ils puissent confondre certains spectateurs. Cependant, lorsque le professeur me montre une autre vidéo deepfake sur laquelle il a travaillé et qui n’a pas encore été dévoilée au public, je comprends totalement ce qu’il veut dire.
Elle montre un célèbre leader mondial en train de faire un discours et il est impossible de la distinguer de la réalité.
« Pensez seulement au potentiel de mauvaise utilisation et de désinformation que nous pourrions voir avec ce type de chose », dit le professeur Li.
Les deepfakes n’ont fait la une des journaux qu’en 2017, après que des vidéos grossièrement produites ont commencé à faire surface sur Internet, impliquant généralement un échange de visage ou une manipulation de célébrités.
Certains étaient des send-ups de personnages connus, mis en voix par des impressionnistes ou des comédiens. Mais dans la grande majorité des cas, les visages de personnes célèbres étaient superposés à ceux de stars du porno, au grand dam des personnes visées.
Depuis, la technologie – qui repose sur des algorithmes complexes d’apprentissage automatique – a évolué rapidement et les deepfakes sont devenus plus courants. Certains ont été utilisés comme « fake news ». D’autres ont été cités dans des affaires de fraude en ligne. Facebook les a même bannis de sa plateforme par crainte qu’ils ne soient utilisés pour manipuler les gens.
Le propre logiciel du professeur Li n’a jamais été conçu pour tromper les gens et sera vendu exclusivement aux entreprises, dit-il. Mais il pense qu’un dangereux génie pourrait être sur le point de s’échapper de sa bouteille alors que la technologie deepfake tombe entre de mauvaises mains – et que la démocratie est menacée.
« Le premier risque est que les gens utilisent déjà le fait que les deepfakes existent pour discréditer les véritables preuves vidéo. Même s’il y a des images de vous faisant ou disant quelque chose, vous pouvez dire que c’était un deepfake et il est très difficile de prouver le contraire. »
Des politiciens du monde entier ont déjà été accusés d’utiliser ce stratagème, l’un d’eux étant Joao Doria, le gouverneur de Sao Paulo au Brésil. En 2018, l’homme politique marié a affirmé qu’une vidéo le montrant prétendument dans une orgie était un deepfake – et personne n’a pu prouver de manière concluante qu’il ne l’était pas.
Cependant, la plus grande menace est le potentiel d’utilisation des deepfakes dans les campagnes de désinformation politique, dit le professeur Li. « Les élections sont déjà manipulées par les fake news, alors imaginez ce qui se passerait si vous ajoutiez des deepfakes sophistiqués au mélange ? »
Pour l’instant, les clips comme celui de Mme Pelosi ne sont pas difficiles à repérer comme étant des faux. Mais fait subtilement, dit-il, les gens pourraient mettre des mots de départ dans la bouche des politiciens et personne ne le saurait – ou du moins, le temps que cela soit corrigé, il serait trop tard.
« Cela pourrait être encore plus dangereux dans les pays en développement où la culture numérique est plus limitée. Là, vous pourriez vraiment avoir un impact sur la façon dont la société réagirait. Vous pourriez même diffuser des choses qui ont tué des gens. »
Mais certains, comme la société néerlandaise de cybersécurité Deeptrace, qui suit cette technologie, estiment que la panique suscitée par les deepfakes a été exagérée.
Selon le directeur Giorgio Patrini, il est relativement facile de réaliser un deepfake convaincant lorsque la personne imitée est quelqu’un que vous ne connaissez pas. Mais s’il s’agit d’un homme politique ou d’une célébrité connue de millions de personnes, c’est beaucoup plus difficile. « Les gens sont tout simplement trop familiers avec leurs voix et leurs expressions faciales », dit-il à la BBC.
« Il faudrait également être capable d’imiter leur voix et de leur faire dire des choses qu’ils diraient de manière crédible, ce qui limite ce que vous pouvez faire. »
« Dark day’
En outre, tout en acceptant que les outils de deepfake les plus sophistiqués – et les plus dangereux – soient librement disponibles en open source sur Internet, il dit qu’ils nécessitent toujours une expertise pour être utilisés. « Cela ne veut pas dire qu’ils ne deviendront pas plus largement banalisés et accessibles, mais je ne pense pas que cela se produira si rapidement. Je pense que cela prendra des années. »
Néanmoins, M. Patrini pense que les deepfakes indiscernables finiront par devenir monnaie courante et pourraient être utilisés comme une arme politique sérieuse.
Offrant un avant-goût de ce à quoi cela pourrait ressembler, Facebook a retiré en décembre de ses plateformes un réseau de plus de 900 faux comptes qui auraient utilisé des pratiques trompeuses pour pousser l’idéologie de droite en ligne.
Notamment, les comptes avaient utilisé de fausses photos de profil de faux visages générées à l’aide de l’intelligence artificielle.
Le Prof Li et Deeptrace ont tous deux créé des outils de détection des deepfakes, bien qu’ils admettent que les cybercriminels travailleront sans relâche pour essayer de les contourner.
Cependant, M. Patrini est optimiste : « Même lorsque les deepfakes seront si sophistiqués que les humains ne pourront pas faire la différence, je crois que nous serons en mesure de construire des outils plus sophistiqués pour les repérer. C’est comme un logiciel anti-virus – il sera constamment mis à jour et amélioré. »