„Suntem deja în punctul în care nu mai poți face diferența între deepfakes și cele reale”, spune profesorul Hao Li de la University of Southern California pentru BBC.
„Este înfricoșător.”
Ne aflăm la instalația deepfake a informaticianului de la Forumul Economic Mondial de la Davos, care dă un indiciu despre ce vrea să spună.
Ca și alte instrumente deepfake, software-ul său creează videoclipuri manipulate de calculator ale unor persoane – adesea politicieni sau celebrități – care sunt concepute să pară reale.
De cele mai multe ori, acest lucru implică „schimbul de fețe”, prin care fața unei celebrități este suprapusă peste asemănarea altei persoane.
În timp ce stau jos, o cameră îmi filmează fața și o proiectează pe un ecran în fața mea; trăsăturile mele sunt apoi cartografiate digital.
- Ce sunt deepfakes?
Una după alta, fețele actorului Leonardo DiCaprio, ale fostului prim-ministru britanic Theresa May și ale fotbalistului Lionel Messi sunt suprapuse pe imaginea propriei mele fețe în timp real – trăsăturile și expresiile lor fuzionând perfect cu ale mele.
Efectele, deși impresionante, sunt mai mult comice decât sinistre, dar ar putea, în mod fezabil, să-i deruteze pe unii spectatori. Cu toate acestea, atunci când profesorul îmi arată un alt videoclip deepfake la care a lucrat și care nu a fost încă dezvăluit publicului, înțeleg în totalitate la ce se referă.
Acesta prezintă un lider mondial celebru care ține un discurs și este imposibil de distins de cel real.
„Gândiți-vă doar la potențialul de utilizare greșită și dezinformare pe care l-am putea vedea cu acest tip de lucru”, spune profesorul Li.
Deepfakes au ajuns pe prima pagină a ziarelor abia în 2017, după ce pe internet au început să apară videoclipuri produse în mod grosolan, care implică de obicei schimbarea sau manipularea fețelor celebrităților.
Câteva dintre ele au fost imitații ale unor figuri bine-cunoscute, dublate de impresioniști sau comedianți. Dar, în marea majoritate a cazurilor, fețele unor persoane celebre au fost suprapuse peste cele ale unor vedete porno, spre marea alarmă a celor vizați.
De atunci, tehnologia – care se bazează pe algoritmi complecși de învățare automată – a evoluat rapid, iar deepfakes au devenit tot mai frecvente. Unele au fost folosite ca „știri false”. Altele au fost citate în cazuri de fraudă online. Facebook le-a interzis chiar și de pe platforma sa, de teamă că ar putea fi folosite pentru a manipula oamenii.
Profesorul Li nu a conceput niciodată propriul software pentru a păcăli oamenii și va fi vândut exclusiv întreprinderilor, spune el. Dar el crede că un duh periculos ar putea fi pe cale să scape din sticlă pe măsură ce tehnologia deepfake cade în mâini greșite – iar democrația este amenințată.
„Primul risc este că oamenii se folosesc deja de faptul că există deepfakes pentru a discredita dovezile video autentice. Chiar dacă există imagini cu tine făcând sau spunând ceva, poți spune că a fost un deepfake și este foarte greu să dovedești contrariul.”
Politicieni din întreaga lume au fost deja acuzați că au folosit această stratagemă, unul dintre ei fiind Joao Doria, guvernatorul orașului Sao Paulo din Brazilia. În 2018, politicianul căsătorit a susținut că o înregistrare video care l-ar fi arătat la o orgie era un deepfake – și nimeni nu a putut dovedi în mod concludent că nu era așa.
Cu toate acestea, cea mai mare amenințare este însă potențialul ca deepfakes să fie folosite în campanii de dezinformare politică, spune profesorul Li. „Alegerile sunt deja manipulate cu știri false, așa că imaginați-vă ce s-ar întâmpla dacă ați adăuga deepfakes sofisticate la amestec?”
Până în prezent, clipuri precum cel al doamnei Pelosi nu sunt greu de identificat ca falsuri. Dar dacă este făcut subtil, spune el, oamenii ar putea pune începutul cuvintelor în gura politicienilor și nimeni nu ar ști – sau cel puțin până când ar fi corectat ar fi prea târziu.
„Ar putea fi chiar mai periculos în țările în curs de dezvoltare, unde alfabetizarea digitală este mai limitată. Acolo ai putea avea un impact real asupra modului în care societatea ar reacționa. Ai putea chiar să răspândești lucruri care ar putea duce la moartea unor oameni.”
Dar unii, cum ar fi firma olandeză de securitate cibernetică Deeptrace, care urmărește această tehnologie, consideră că panica legată de deepfakes a fost exagerată.
Directorul Giorgio Patrini spune că este relativ ușor să realizezi un deepfake convingător atunci când persoana care este imitată este cineva pe care nu îl cunoști. Dar dacă este vorba de un politician sau de o celebritate cunoscută de milioane de oameni, este mult mai greu. „Oamenii sunt pur și simplu prea familiarizați cu vocile și expresiile lor faciale”, spune el pentru BBC.
„Ar trebui, de asemenea, să fii capabil să le imiți vocea și să le faci să spună lucruri pe care le-ar spune în mod credibil, ceea ce limitează ceea ce poți face.”
‘Dark day’
În plus, deși acceptă că cele mai sofisticate – și periculoase – instrumente deepfake sunt disponibile în mod gratuit în sursă deschisă pe internet, el spune că acestea necesită totuși expertiză pentru a fi folosite. „Asta nu înseamnă că nu vor deveni mai larg comercializate și accesibile, dar nu cred că se va întâmpla atât de repede. Cred că va dura ani de zile.”
Cu toate acestea, domnul Patrini crede că deepfakes nediferențiabile vor deveni obișnuite în cele din urmă și ar putea fi folosite ca o armă politică serioasă.
Oferind o mostră a ceea ce ar putea arăta acest lucru, Facebook a eliminat în decembrie o rețea de peste 900 de conturi false de pe platformele sale, care ar fi folosit practici înșelătoare pentru a împinge ideologia de dreapta online.
În special, conturile folosiseră fotografii de profil false cu fețe false generate cu ajutorul inteligenței artificiale.
Atât profesorul Li, cât și Deeptrace au creat instrumente de detectare a deepfake-urilor, deși recunosc că infractorii cibernetici vor lucra neobosit pentru a încerca să le ocolească.
Cu toate acestea, dl Patrini este optimist: „Chiar și atunci când deepfakes sunt atât de sofisticate încât oamenii nu pot face diferența, cred că vom fi capabili să construim instrumente mai sofisticate pentru a le detecta. Este ca un software antivirus – va continua să fie actualizat și îmbunătățit.”