Título del vídeo Vídeos deepfakes: ¿Puedes creer realmente lo que ves?

«Ya estamos en el punto en el que no se puede diferenciar entre los deepfakes y los reales», dice a la BBC el profesor Hao Li, de la Universidad del Sur de California.

«Da miedo.»

Estamos en la instalación de deepfakes del informático en el Foro Económico Mundial de Davos que da una pista de lo que quiere decir.

Al igual que otras herramientas de deepfake, su software crea vídeos manipulados por ordenador de personas -a menudo políticos o celebridades- que están diseñados para parecer reales.

La mayoría de las veces se trata de un «intercambio de caras», en el que el rostro de un famoso se superpone a la imagen de otra persona.

Mientras estoy sentado, una cámara filma mi rostro y lo proyecta en una pantalla frente a mí; mis rasgos se mapean entonces digitalmente.

Image caption El profesor Hao Li dice que los deepfakes son «peligrosos»
  • ¿Qué son los deepfakes?

Una tras otra, las caras del actor Leonardo DiCaprio, de la ex primera ministra del Reino Unido Theresa May y del futbolista Lionel Messi se superponen a la imagen de mi propia cara en tiempo real: sus rasgos y expresiones se funden a la perfección con los míos.

Los efectos, aunque impresionantes, son más cómicos que siniestros, pero podrían confundir a algunos espectadores. Sin embargo, cuando el profesor me muestra otro vídeo deepfake en el que ha estado trabajando y que aún no se ha dado a conocer al público, entiendo perfectamente lo que quiere decir.

Muestra a un famoso líder mundial dando un discurso y es imposible de distinguir del real.

«Sólo hay que pensar en el potencial de mal uso y desinformación que podríamos ver con este tipo de cosas», dice el profesor Li.

Los deepfakes no llegaron a los titulares hasta 2017, después de que empezaran a aparecer en internet vídeos producidos de forma burda, normalmente con intercambio de caras de famosos o con manipulación.

Derechos de autor de la imagen Hao Li
Image caption Alec Baldwin haciéndose pasar por el presidente Trump: El verdadero Alec Baldwin está a la izquierda: ¿se nota?

Algunas eran imitaciones de personajes conocidos, con voces de impresionistas o cómicos. Pero en la gran mayoría de los casos, los rostros de personas famosas se superponían a los de estrellas del porno, para alarma de los destinatarios.

Desde entonces, la tecnología -que se basa en complejos algoritmos de aprendizaje automático- ha evolucionado rápidamente y los deepfakes se han vuelto más comunes. Algunos se han utilizado como «noticias falsas». Otros han sido citados en casos de fraude en línea. Facebook incluso los ha prohibido en su plataforma por temor a que puedan utilizarse para manipular a la gente.

El propio software del profesor Li nunca fue diseñado para engañar a la gente y se venderá exclusivamente a las empresas, dice. Pero cree que un genio peligroso podría estar a punto de escapar de su botella si la tecnología de deepfakes cae en manos equivocadas, y la democracia está en peligro.

«El primer riesgo es que la gente ya está utilizando el hecho de que los deepfakes existen para desacreditar las pruebas de vídeo genuinas. Aunque haya imágenes tuyas haciendo o diciendo algo puedes decir que era un deepfake y es muy difícil demostrar lo contrario.»

Derechos de autor de la imagen Getty Images
Image caption La tecnología del deepfake utiliza miles de imágenes fijas de la persona

Políticos de todo el mundo ya han sido acusados de utilizar esta estratagema, uno de ellos es Joao Doria, el gobernador de Sao Paulo en Brasil. En 2018, el político casado afirmó que un vídeo en el que supuestamente aparecía en una orgía era un deepfake, y nadie ha podido demostrar de forma concluyente que no lo fuera.

Sin embargo, la mayor amenaza es la posibilidad de que los deepfakes se utilicen en campañas de desinformación política, afirma el profesor Li. «Las elecciones ya se manipulan con noticias falsas, así que imagina lo que pasaría si se añaden sofisticados deepfakes a la mezcla».

Hasta ahora, los clips como el de la Sra. Pelosi no son difíciles de detectar como falsos. Pero si se hace con sutileza, dice, la gente podría poner palabras en la boca de los políticos y nadie lo sabría, o al menos cuando se corrigiera ya sería demasiado tarde.

«Podría ser incluso más peligroso en los países en desarrollo, donde la alfabetización digital es más limitada. Allí sí que podrías influir en la reacción de la sociedad. Incluso se podrían difundir cosas que acabaran con la vida de la gente».

Pero algunos, como la empresa holandesa de ciberseguridad Deeptrace, que rastrea la tecnología, creen que el pánico a las deepfakes ha sido exagerado.

El director Giorgio Patrini dice que es relativamente fácil hacer una deepfake convincente cuando la persona a la que se imita es alguien que no se conoce. Pero si se trata de un político o una celebridad conocida por millones de personas, es mucho más difícil. «La gente está demasiado familiarizada con sus voces y expresiones faciales», dice a la BBC.

«También tendrías que ser capaz de suplantar su voz y hacerles decir cosas que dirían de forma creíble, lo que limita lo que puedes hacer».

‘Dark day’

Además, aunque acepta que las herramientas de deepfake más sofisticadas -y peligrosas- están disponibles de forma gratuita en código abierto en internet, dice que siguen requiriendo experiencia para su uso. «Eso no quiere decir que no se vayan a generalizar y hacer accesibles, pero no creo que ocurra tan rápido. Creo que tardará años».

No obstante, el Sr. Patrini cree que las deepfakes indistinguibles se convertirán en algo habitual con el tiempo y podrían utilizarse como un arma política seria.

Ofreciendo una muestra de cómo podría ser esto, Facebook eliminó en diciembre una red de más de 900 cuentas falsas de sus plataformas que supuestamente utilizaban prácticas engañosas para impulsar la ideología de la derecha en línea.

En particular, las cuentas habían utilizado fotos de perfil falsas de caras falsas generadas mediante inteligencia artificial.

Tanto el profesor Li como Deeptrace han creado herramientas de detección de deepfakes, aunque admiten que los ciberdelincuentes trabajarán incansablemente para intentar burlarlas.

Sin embargo, Patrini se muestra optimista: «Incluso cuando los deepfakes sean tan sofisticados que los humanos no puedan distinguirlos, creo que seremos capaces de construir herramientas más sofisticadas para detectarlos. Es como el software antivirus: se seguirá actualizando y mejorando».

Deja una respuesta

Tu dirección de correo electrónico no será publicada.