Legenda de vídeo Deepfake videos: Você realmente pode acreditar no que vê?

“Já estamos no ponto em que você não consegue perceber a diferença entre deepfakes e a coisa real”, diz o professor Hao Li da Universidade do Sul da Califórnia à BBC.

“É assustador.”

Estamos na instalação de deepfake do cientista da computação no Fórum Econômico Mundial em Davos, o que dá uma dica do que ele quer dizer.

Como outras ferramentas deepfake, seu software cria vídeos manipulados por computador de pessoas – muitas vezes políticos ou celebridades – que são projetados para parecerem reais.

Mas vezes isso envolve “troca de rosto”, onde o rosto de uma celebridade é sobreposto à semelhança de outra pessoa.

Como eu sento, uma câmera filma meu rosto e o projeta em uma tela na minha frente; minhas características são então mapeadas digitalmente.

Legenda da imagem Prof Hao Li diz que as deepfakes são ‘perigosas’
  • O que são deepfakes?

Um após o outro os rostos do actor Leonardo DiCaprio, da ex-primeira-ministra britânica Theresa May e do futebolista Lionel Messi são sobrepostos à imagem do meu próprio rosto em tempo real – as suas características e expressões fundem-se perfeitamente com o meu.

Os efeitos, embora impressionantes, são mais cómicos do que sinistros mas podem confundir alguns espectadores. No entanto, quando o professor me mostra outro vídeo profundamente falso em que ele tem trabalhado e que ainda não foi revelado ao público, eu entendo totalmente o que ele quer dizer.

Mostra um famoso líder mundial fazendo um discurso e é impossível distinguir do real.

“Basta pensar no potencial de mau uso e desinformação que poderíamos ver com este tipo de coisa”, diz o Prof.

Deepfakes só chegou às manchetes em 2017 depois que vídeos crudamente produzidos começaram a aparecer na internet, tipicamente envolvendo troca ou manipulação de rosto de celebridades.

Direitos autorais de imagem Hao Li
Legenda de imagem Alec Baldwin imitando o Presidente Trump: O verdadeiro Alec Baldwin está à esquerda – você poderia dizer?
>

Algumas foram enviadas figuras bem conhecidas, expressadas por impressionistas ou comediantes. Mas na grande maioria dos casos, os rostos de pessoas famosas foram sobrepostos aos de estrelas porno, muito para o alarme dos visados.

Desde então a tecnologia – que se baseia em complexos algoritmos de aprendizagem de máquinas – evoluiu rapidamente e as falsificações profundas tornaram-se mais comuns. Algumas têm sido usadas como “notícias falsas”. Outros têm sido citados em casos de fraude online. O Facebook até os baniu de sua plataforma por medo que pudessem ser usados para manipular pessoas.

Prof Li’s próprio software nunca foi projetado para enganar as pessoas e será vendido exclusivamente para as empresas, diz ele. Mas ele acha que um gênio perigoso pode estar prestes a escapar de sua garrafa, pois a tecnologia deepfake cai em mãos erradas – e a democracia está ameaçada.

“O primeiro risco é que as pessoas já estão usando o fato de que deepfakes existem para desacreditar provas genuínas de vídeo. Mesmo que haja imagens de você fazendo ou dizendo algo que você pode dizer que foi uma falsificação profunda e é muito difícil provar o contrário”

Direitos autorais de imagens Getty Images
Legenda de imagens Deepfake tech usa milhares de imagens estáticas da pessoa

Políticos ao redor do mundo já foram acusados de usar este estratagema, sendo um deles João Doria, o governador de São Paulo no Brasil. Em 2018, o político casado alegou que um vídeo alegadamente mostrando-o em uma orgia era uma falsificação profunda – e ninguém conseguiu provar conclusivamente que não era.

No entanto, a maior ameaça é o potencial de falsificações profundas a serem usadas em campanhas de desinformação política, diz o professor Li. “As eleições já estão sendo manipuladas com notícias falsas, então imagine o que aconteceria se você adicionasse falsificações sofisticadas à mistura…”

Até agora, clipes como o da Sra. Pelosi não são difíceis de identificar como falsificações. Mas feito sutilmente, diz ele, as pessoas poderiam colocar palavras na boca dos políticos e ninguém saberia – ou pelo menos quando fosse corrigido seria tarde demais.

“Poderia ser ainda mais perigoso em países em desenvolvimento onde a alfabetização digital é mais limitada. Lá você poderia realmente impactar a forma como a sociedade reagiria. Você poderia até mesmo espalhar coisas que mataram pessoas”.

Mas alguns, como a empresa holandesa de segurança cibernética Deeptrace, que rastreia a tecnologia, sentem que o pânico sobre deepfakes foi exagerado.

O diretor Giorgio Patrini diz que é relativamente fácil fazer uma falsificação profunda convincente quando a pessoa que está sendo imitada é alguém que você não conhece. Mas se for um político ou uma celebridade familiar a milhões é muito mais difícil. “As pessoas estão familiarizadas demais com suas vozes e expressões faciais”, ele diz à BBC.

“Você também precisaria ser capaz de personificar sua voz e fazê-los dizer coisas que eles diriam com credibilidade, o que limita o que você pode fazer”

‘Dark day’

Além disso, enquanto ele aceita que as ferramentas deepfake mais sofisticadas – e perigosas – estão disponíveis gratuitamente em código aberto na internet, ele diz que elas ainda precisam de experiência para usar. “Isso não quer dizer que eles não se tornarão mais amplamente comercializados e acessíveis, mas eu não acho que isso vai acontecer tão rapidamente. Acho que levará anos”

Não obstante, o Sr. Patrini acha que falsificações profundas indistinguíveis acabarão por se tornar comuns e poderão ser usadas como uma arma política séria.

>

Obtendo uma amostra do que isto poderia parecer, o Facebook em dezembro removeu uma rede de mais de 900 contas falsas de suas plataformas que supostamente usavam práticas enganosas para empurrar a ideologia da direita online.

Notavelmente, as contas tinham usado fotos de perfis falsos de rostos falsos gerados usando inteligência artificial.

Both Prof Li e Deeptrace criaram ferramentas de detecção de falsificações profundas, embora admitam que criminosos cibernéticos trabalharão incansavelmente para tentar contorná-las.

No entanto, o Sr. Patrini é otimista: “Mesmo quando as falsificações profundas são tão sofisticadas que os humanos não conseguem perceber a diferença, acredito que seremos capazes de construir ferramentas mais sofisticadas para identificá-las. É como um software anti-vírus – vai continuar a ser actualizado e melhorado”.

Deixe uma resposta

O seu endereço de email não será publicado.