Videotekst Deepfake-videoer: Kan du virkelig tro på det, du ser?

“Vi er allerede nået til det punkt, hvor man ikke kan se forskel på deepfakes og den ægte vare”, siger professor Hao Li fra University of Southern California til BBC.

“Det er skræmmende.”

Vi befinder os ved datalogens deepfake-installation på World Economic Forum i Davos, som giver et hint om, hvad han mener.

Som andre deepfake-værktøjer skaber hans software computermanipulerede videoer af personer – ofte politikere eller berømtheder – der er designet til at se ægte ud.

Det drejer sig oftest om “face swapping”, hvor en berømtheds ansigt overlejres på en anden person.

Mens jeg sidder, filmer et kamera mit ansigt og projicerer det på en skærm foran mig; mine træk bliver derefter digitalt kortlagt.

Billedtekst Prof. Hao Li siger, at deepfakes er “farlige”
  • Hvad er deepfakes?

Den ene efter den anden bliver ansigterne af skuespilleren Leonardo DiCaprio, den tidligere britiske premierminister Theresa May og fodboldspilleren Lionel Messi lagt oven på billedet af mit eget ansigt i realtid – deres træk og udtryk smelter sømløst sammen med mit.

Og selvom effekterne er imponerende, er de mere komiske end uhyggelige, men de kan muligvis forvirre nogle seere. Men da professoren viser mig en anden deepfake-video, som han har arbejdet på, og som endnu ikke er blevet afsløret for offentligheden, forstår jeg helt, hvad han mener.

Den viser en berømt verdensleder, der holder en tale, og den er umulig at skelne fra den ægte vare.

“Tænk bare på det potentiale for misbrug og desinformation, vi kunne se med den slags ting”, siger professor Li.

Deepfakes kom først i overskrifterne i 2017, efter at groft producerede videoer begyndte at dukke op på internettet, som typisk involverer udskiftning af berømtheders ansigter eller manipulation.

Image copyright Hao Li
Image caption Alec Baldwin imiterer præsident Trump: Den rigtige Alec Baldwin er til venstre – kunne du se det?

Nogle var send-ups af kendte personer, der blev givet stemme af impressionister eller komikere. Men i langt de fleste tilfælde blev kendte personers ansigter lagt oven på pornostjerners ansigter, til stor foruroligelse for dem, der var målgruppen.

Siden da har teknologien – som er baseret på komplekse maskinlæringsalgoritmer – udviklet sig hurtigt, og deepfakes er blevet mere almindelige. Nogle er blevet brugt som “falske nyheder”. Andre er blevet citeret i sager om onlinesvindel. Facebook har endda forbudt dem fra sin platform af frygt for, at de kunne bruges til at manipulere folk.

Prof. Li’s egen software har aldrig været designet til at snyde folk og vil udelukkende blive solgt til virksomheder, siger han. Men han mener, at en farlig ånd kan være ved at slippe ud af sin flaske, når deepfake-teknologien falder i de forkerte hænder – og demokratiet er truet.

“Den første risiko er, at folk allerede nu bruger det faktum, at deepfakes findes, til at miskreditere ægte videobevægelser. Selv om der er optagelser af dig, hvor du gør eller siger noget, kan du sige, at det var en deepfake, og det er meget svært at bevise det modsatte.”

Image copyright Getty Images
Image caption Deepfake-teknologi bruger tusindvis af stillbilleder af personen

Politikere rundt om i verden er allerede blevet beskyldt for at bruge dette kneb, en af dem er Joao Doria, guvernør i Sao Paulo i Brasilien. I 2018 hævdede den gifte politiker, at en video, der angiveligt viste ham ved et orgie, var en deepfake – og ingen har været i stand til at bevise endegyldigt, at den ikke var det.

Den større trussel er imidlertid potentialet for deepfakes til at blive brugt i politiske desinformationskampagner, siger professor Li. “Valg bliver allerede manipuleret med falske nyheder, så forestil dig, hvad der ville ske, hvis man tilføjede sofistikerede deepfakes til blandingen?”

Så vidt vides er klip som det af fru Pelosi ikke svære at afsløre som forfalskninger. Men hvis det gøres subtilt, siger han, kan folk lægge ord i munden på politikere, og ingen vil opdage det – eller i det mindste vil det være for sent, når det bliver rettet.

“Det kan være endnu farligere i udviklingslande, hvor den digitale viden er mere begrænset. Der kunne man virkelig påvirke, hvordan samfundet ville reagere. Du kunne endda sprede ting, der kunne få folk dræbt.”

Men nogle, som det hollandske cybersikkerhedsfirma Deeptrace, der følger teknologien, mener, at panikken over deepfakes er overdrevet.

Direktør Giorgio Patrini siger, at det er relativt nemt at lave en overbevisende deepfake, når den person, der efterlignes, er en person, man ikke kender. Men hvis der er tale om en politiker eller en berømthed, som millioner af mennesker kender, er det meget sværere. “Folk er simpelthen for fortrolige med deres stemmer og ansigtsudtryk,” siger han til BBC.

“Man skal også kunne efterligne deres stemme og få dem til at sige ting, som de troværdigt ville sige, hvilket begrænser, hvad man kan gøre.”

“Mørk dag”

Og selv om han accepterer, at de mest sofistikerede – og farlige – deepfake-værktøjer er frit tilgængelige i open source på internettet, siger han, at det stadig kræver ekspertise at bruge dem. “Dermed ikke sagt, at de ikke vil blive mere almindeligt gjort tilgængelige og tilgængelige, men jeg tror ikke, at det vil ske så hurtigt. Jeg tror, at det vil tage flere år.”

Patrini mener ikke desto mindre, at uadskillelige deepfakes vil blive almindeligt udbredt på et tidspunkt og kunne bruges som et alvorligt politisk våben.

Som en forsmag på, hvordan dette kan se ud, fjernede Facebook i december et netværk af mere end 900 falske konti fra sine platforme, som angiveligt brugte vildledende metoder til at fremme højrefløjsideologien online.

Nærmere bestemt havde kontiene brugt falske profilbilleder af falske ansigter, der var genereret ved hjælp af kunstig intelligens.

Både professor Li og Deeptrace har skabt værktøjer til at opdage deepfakes, selv om de indrømmer, at cyberkriminelle vil arbejde utrætteligt på at forsøge at omgå dem.

Patrini er dog optimistisk: “Selv når deepfakes er så sofistikerede, at mennesker ikke kan se forskel, tror jeg, at vi vil være i stand til at bygge mere sofistikerede værktøjer til at opdage dem. Det er ligesom antivirussoftware – den vil hele tiden blive opdateret og forbedret.”

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.