Didascalia video I video deepfake: Si può davvero credere a quello che si vede?

“Siamo già al punto in cui non si può dire la differenza tra i deepfake e la cosa reale”, dice alla BBC il professor Hao Li della University of Southern California.

“Fa paura.”

Siamo all’installazione deepfake dell’informatico al World Economic Forum di Davos, che dà un’idea di ciò che intende.

Come altri strumenti deepfake, il suo software crea video manipolati al computer di persone – spesso politici o celebrità – che sono progettati per sembrare reali.

Il più delle volte si tratta di “face swapping”, per cui il volto di una celebrità viene sovrapposto alle sembianze di qualcun altro.

Mentre sono seduto, una telecamera riprende il mio viso e lo proietta su uno schermo di fronte a me; le mie caratteristiche vengono poi mappate digitalmente.

Didascalia immagine Il Prof Hao Li dice che i deepfakes sono ‘pericolosi’
  • Cosa sono i deepfakes?

Uno dopo l’altro i volti dell’attore Leonardo DiCaprio, dell’ex primo ministro britannico Theresa May e del calciatore Lionel Messi sono sovrapposti all’immagine del mio volto in tempo reale – le loro caratteristiche ed espressioni si fondono senza soluzione di continuità con la mia.

Gli effetti, anche se impressionanti, sono più comici che sinistri ma potrebbero confondere alcuni spettatori. Tuttavia, quando il professore mi mostra un altro video deepfake su cui ha lavorato e che deve ancora essere svelato al pubblico, capisco perfettamente cosa intende.

Mostra un famoso leader mondiale che tiene un discorso ed è impossibile da distinguere dalla realtà.

“Basta pensare al potenziale di abuso e disinformazione che potremmo vedere con questo tipo di cose”, dice il Prof Li.

I deepfakes sono balzati agli onori della cronaca solo nel 2017, dopo che video prodotti in modo grossolano hanno cominciato ad affiorare su internet, in genere coinvolgendo lo scambio o la manipolazione del volto delle celebrità.

Image copyright Hao Li
Image caption Alec Baldwin impersona il presidente Trump: Il vero Alec Baldwin è a sinistra – si può dire?

Alcuni erano imitazioni di personaggi noti, doppiati da impressionisti o comici. Ma nella stragrande maggioranza dei casi, i volti di persone famose sono stati sovrapposti a quelli di pornostar, con grande allarme degli interessati.

Da allora la tecnologia – che si basa su complessi algoritmi di apprendimento automatico – si è evoluta rapidamente e i deepfakes sono diventati più comuni. Alcuni sono stati usati come “fake news”. Altri sono stati citati in casi di frode online. Facebook li ha persino banditi dalla sua piattaforma per paura che possano essere usati per manipolare le persone.

Il software del professor Li non è mai stato progettato per ingannare le persone e sarà venduto esclusivamente alle imprese, dice. Ma pensa che un pericoloso genio potrebbe essere in procinto di scappare dalla sua bottiglia quando la tecnologia deepfake cade nelle mani sbagliate – e la democrazia è in pericolo.

“Il primo rischio è che la gente sta già usando il fatto che i deepfakes esistono per screditare le prove video autentiche. Anche se c’è un filmato di te che fai o dici qualcosa, puoi dire che era un deepfake ed è molto difficile dimostrare il contrario.”

Image copyright Getty Images
Image caption La tecnologia deepfake utilizza migliaia di immagini fisse della persona

Politici di tutto il mondo sono già stati accusati di usare questo stratagemma, uno è Joao Doria, il governatore di San Paolo in Brasile. Nel 2018 il politico sposato ha affermato che un video che presumibilmente lo mostrava in un’orgia era un deepfake – e nessuno è stato in grado di dimostrare definitivamente che non lo fosse.

Tuttavia, la minaccia maggiore è il potenziale per i deepfake da utilizzare in campagne di disinformazione politica, dice il Prof Li. “Le elezioni vengono già manipolate con le fake news, quindi immaginate cosa accadrebbe se si aggiungessero sofisticati deepfakes al mix?”

Finora clip come quello della signora Pelosi non sono difficili da individuare come falsi. Ma fatto in modo sottile, dice, la gente potrebbe mettere l’inizio alle parole nella bocca dei politici e nessuno lo saprebbe – o almeno per il momento in cui fosse corretto sarebbe troppo tardi.

“Potrebbe essere ancora più pericoloso nei paesi in via di sviluppo dove l’alfabetizzazione digitale è più limitata. Lì si potrebbe davvero influenzare il modo in cui la società reagirebbe. Ma alcuni, come la società olandese di sicurezza informatica Deeptrace, che tiene traccia della tecnologia, ritengono che il panico per i deepfakes sia stato esagerato.

Il direttore Giorgio Patrini dice che è relativamente facile tirare fuori un deepfake convincente quando la persona imitata è qualcuno che non conosci. Ma se si tratta di un politico o di una celebrità familiare a milioni di persone è molto più difficile. “La gente ha troppa familiarità con le loro voci ed espressioni facciali”, dice alla BBC.

“Dovresti anche essere in grado di impersonare la loro voce e fargli dire cose che direbbero in modo credibile, il che limita quello che puoi fare.”

‘Dark day’

Inoltre, mentre accetta che gli strumenti di deepfake più sofisticati – e pericolosi – sono liberamente disponibili in open source su internet, dice che richiedono ancora competenze per essere utilizzati. “Questo non vuol dire che non diventeranno più ampiamente mercificati e accessibili, ma non credo che accadrà così rapidamente. Penso che ci vorranno anni.”

Nonostante, il signor Patrini pensa che i deepfakes indistinguibili diventeranno alla fine comuni e potrebbero essere usati come una seria arma politica.

Offrendo un assaggio di ciò che potrebbe apparire, Facebook a dicembre ha rimosso una rete di più di 900 account falsi dalle sue piattaforme che presumibilmente usavano pratiche ingannevoli per spingere l’ideologia di destra online.

In particolare, gli account avevano usato foto di profilo false di volti falsi generati utilizzando l’intelligenza artificiale.

Sia il Prof Li che Deeptrace hanno creato strumenti di rilevamento dei deepfake, anche se ammettono che i cyber criminali lavoreranno instancabilmente per cercare di aggirarli.

Tuttavia, il signor Patrini è ottimista: “Anche quando i deepfake sono così sofisticati che gli umani non riescono a distinguerli, credo che saremo in grado di costruire strumenti più sofisticati per individuarli. È come un software anti-virus – continuerà ad essere aggiornato e migliorato”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.