Videon kuvateksti Deepfake-videot: Voitko todella uskoa näkemääsi?

”Olemme jo siinä pisteessä, että et voi erottaa deepfakeja aidosta asiasta”, Etelä-Kalifornian yliopiston professori Hao Li sanoo BBC:lle.

”Se on pelottavaa.”

Olemme tietotekniikan tutkijan deepfake-installaatiossa Maailman talousfoorumissa Davosissa, joka antaa viitteitä siitä, mitä hän tarkoittaa.

Kuten muutkin deepfake-työkalut, hänen ohjelmistonsa luo tietokoneella manipuloituja videoita ihmisistä – usein poliitikoista tai julkkiksista – jotka on suunniteltu näyttämään todellisilta.

Useimmiten kyse on ”kasvojen vaihtamisesta”, jolloin julkkiksen kasvot asetetaan jonkun toisen henkilön hahmon päälle.

As istuessani kamera kuvaa kasvojani ja projisoi ne edessäni olevalle kuvaruudulle; sen jälkeen piirteitäni kartoitetaan digitaalisesti.

Kuvan kuvateksti Prof. Hao Li sanoo, että deepfakes ovat ”vaarallisia”
  • Mitä ovat deepfakes?

Yksi toisensa jälkeen näyttelijä Leonardo DiCaprion, Ison-Britannian entisen pääministerin Theresa Mayn ja jalkapalloilija Lionel Messin kasvot asetetaan reaaliaikaisesti omien kasvojeni kuvan päälle – heidän piirteensä ja ilmeensä sulautuvat saumattomasti minun kasvoihini.

Vaikuttavista vaikutelmista huolimatta efektit ovat pikemminkin koomisia kuin pahaenteisiä, mutta ne saattaisivat mahdollisesti hämmentää joitain katsojia. Kun professori kuitenkin näyttää minulle toista deepfake-videota, jonka parissa hän on työskennellyt ja jota ei ole vielä paljastettu yleisölle, ymmärrän täysin, mitä hän tarkoittaa.

Se näyttää kuuluisan maailman johtajan pitämässä puhetta, ja sitä on mahdotonta erottaa aidosta.

”Ajatelkaapa, millaisia mahdollisuuksia väärinkäytöksiin ja disinformaatioon tämäntyyppiset jutut tarjoavat”, professori Li sanoo.

Deepfakes nousi otsikoihin vasta vuonna 2017 sen jälkeen, kun internetissä alkoi näkyä karkeasti tuotettuja videoita, joissa tyypillisesti vaihdetaan julkkisten kasvoja tai manipuloidaan niitä.

Image copyright Hao Li
Image caption Alec Baldwin imitoi presidentti Trumpia: Oikea Alec Baldwin on vasemmalla – huomasitko?

Jotkut olivat tunnettujen hahmojen matkimisia, joita imitaattorit tai koomikot äänittivät. Mutta suurimmassa osassa tapauksista tunnettujen ihmisten kasvot asetettiin pornotähtien kasvojen päälle, kohteena olleiden henkilöiden suureksi hälytykseksi.

Sen jälkeen teknologia – joka perustuu monimutkaisiin koneoppimisalgoritmeihin – on kehittynyt nopeasti, ja deepfakesit ovat yleistyneet. Joitakin niistä on käytetty ”valeuutisina”. Toisiin on viitattu verkkohuijaustapauksissa. Facebook on jopa kieltänyt ne alustaltaan, koska se pelkää, että niitä voitaisiin käyttää ihmisten manipuloimiseen.

Prof Li:n omaa ohjelmistoa ei ole koskaan suunniteltu ihmisten huijaamiseen, ja sitä myydään yksinomaan yrityksille, hän sanoo. Hän kuitenkin uskoo, että vaarallinen henki saattaa olla karkaamassa pullostaan, kun deepfake-teknologia joutuu vääriin käsiin – ja demokratia on uhattuna.

”Ensimmäinen riski on se, että ihmiset käyttävät jo nyt sitä, että deepfake-teknologia on olemassa, todellisten videotodisteiden mustamaalaamiseen. Vaikka sinusta on kuvamateriaalia, jossa teet tai sanot jotain, voit sanoa, että se oli deepfake, ja on hyvin vaikea todistaa muuta.”

Image copyright Getty Images
Image caption Deepfake-tekniikka käyttää tuhansia still-kuvia henkilöstä

Poliitikkoja eri puolilla maailmaa on jo syytetty tämän tempun käyttämisestä, ja yksi heistä on Sao Paulon kuvernööri Brasiliassa, Joao Doria. Vuonna 2018 naimisissa oleva poliitikko väitti, että video, jonka väitettiin esittävän häntä orgioissa, oli syväväärennös – eikä kukaan ole pystynyt todistamaan lopullisesti, ettei se ollut sitä.

Suurempi uhka on kuitenkin syväväärennösten potentiaalinen käyttö poliittisissa disinformaatiokampanjoissa, sanoo professori Li. ”Vaaleja manipuloidaan jo nyt valeuutisilla, joten kuvitelkaa, mitä tapahtuisi, jos sekaan lisättäisiin kehittyneitä syväväärennöksiä?”

Toistaiseksi Pelosin kaltaisia klippejä ei ole vaikea tunnistaa väärennöksiksi. Mutta hienovaraisesti tehtynä, hän sanoo, ihmiset voisivat laittaa alkusanoja poliitikkojen suuhun, eikä kukaan tietäisi – tai ainakin kun se korjattaisiin, olisi jo liian myöhäistä.

”Se voisi olla vielä vaarallisempaa kehitysmaissa, joissa digitaalinen lukutaito on vähäisempää”. Siellä voisi todella vaikuttaa siihen, miten yhteiskunta reagoi. Voisit jopa levittää asioita, jotka tappaisivat ihmisiä.”

Joidenkin, kuten hollantilaisen Deeptrace-tietoturvayhtiön, joka seuraa teknologiaa, mielestä deepfake-paniikki on kuitenkin liioiteltua.

Johtaja Giorgio Patrini sanoo, että vakuuttavan deepfake-toteutuksen tekeminen on suhteellisen helppoa silloin, kun jäljiteltävä henkilö on joku tuntematon. Mutta jos kyseessä on miljoonille tuttu poliitikko tai julkkis, se on paljon vaikeampaa. ”Ihmiset tuntevat heidän äänensä ja ilmeensä liian hyvin”, hän sanoo BBC:lle.

”Sinun pitäisi myös pystyä matkimaan heidän ääntään ja saada heidät sanomaan asioita, joita he sanoisivat uskottavasti, mikä rajoittaa sitä, mitä voit tehdä.”

”Synkkä päivä”

Hän myöntää, että kehittyneimmät – ja vaarallisimmat – väärennöstyökalut ovat vapaasti saatavilla avoimena lähdekoodina internetissä, mutta niiden käyttäminen vaatii hänen mukaansa silti osaamista. ”Tämä ei tarkoita sitä, etteivätkö ne muuttuisi laajemmin hyödykkeiksi ja helpommin saatavilla oleviksi, mutta en usko, että se tapahtuu niin nopeasti. Luulen, että se vie vuosia.”

Patrini uskoo kuitenkin, että erottamattomat väärennökset yleistyvät ennen pitkää ja että niitä voidaan käyttää vakavana poliittisena aseena.

Tarjoamalla esimakua siitä, miltä tämä voisi näyttää, Facebook poisti joulukuussa alustoiltaan yli 900 väärennetyn tilin verkoston, jonka väitettiin käyttäneen harhaanjohtavia käytäntöjä oikeistolaisen ideologian levittämiseen verkossa.

Tileillä oli käytetty tekoälyn avulla luotuja väärennettyjä profiilikuvia väärennetyistä kasvoista.

Kumpikin professori Li ja Deeptrace ovat luoneet deepfake-tunnistustyökaluja, vaikka he myöntävätkin, että verkkorikolliset yrittävät väsymättömästi kiertää niitä.

Patrini on kuitenkin optimistinen: ”Vaikka deepfakes ovat niin kehittyneitä, etteivät ihmiset pysty erottamaan niitä toisistaan, uskon, että pystymme rakentamaan kehittyneempiä työkaluja, joilla voimme havaita niitä. Se on kuin virustorjuntaohjelmisto – sitä päivitetään ja parannetaan jatkuvasti.”

Vastaa

Sähköpostiosoitettasi ei julkaista.