“Már ott tartunk, hogy nem lehet megkülönböztetni a deepfake-eket a valóditól” – mondta Hao Li, a Dél-Kaliforniai Egyetem professzora a BBC-nek.
“Ez ijesztő.”
A számítógépes tudós deepfake-installációjánál vagyunk a davosi Világgazdasági Fórumon, ami sejteti, mire gondol.
A többi deepfake-eszközhöz hasonlóan az ő szoftvere is számítógépes manipulált videókat készít emberekről – gyakran politikusokról vagy hírességekről -, amelyeket úgy terveznek, hogy valódiaknak tűnjenek.
Ez leggyakrabban “arccserét” jelent, amelynek során egy híresség arcát egy másik személy képmására helyezik rá.
Amint ülök, egy kamera lefilmezi az arcom, és az előttem lévő képernyőre vetíti; a vonásaimat ezután digitálisan leképezik.
- Mik azok a deepfakes?
Egymás után Leonardo DiCaprio színész, Theresa May volt brit miniszterelnök és Lionel Messi labdarúgó arca kerül egymásra a saját arcom képével valós időben – vonásaik és arckifejezéseik zökkenőmentesen összeolvadnak az enyémmel.
A hatások, bár hatásosak, inkább komikusak, mint baljósak, de elképzelhető, hogy összezavarhatnak néhány nézőt. Amikor azonban a professzor megmutat nekem egy másik deepfake videót, amelyen dolgozott, és amelyet még nem mutatott be a nyilvánosságnak, teljesen megértem, mire gondol.
Ez egy híres világvezető beszédét mutatja, és lehetetlen megkülönböztetni a valóditól.
“Gondoljunk csak bele, milyen visszaélési és dezinformációs lehetőségeket láthatunk az ilyesmivel” – mondja Li professzor.
A mélyhamisítások csak 2017-ben kerültek a címlapokra, miután durván elkészített videók kezdtek felbukkanni az interneten, jellemzően hírességek arcának kicserélésével vagy manipulálásával.
Néhányan ismert személyiségeket utánoztak, impresszionisták vagy komikusok hangján. Az esetek túlnyomó többségében azonban a híres emberek arcát pornósztárok arcára helyezték, a célszemélyek nagy riadalmára.
Azóta a technológia – amely összetett gépi tanulási algoritmusokra támaszkodik – gyorsan fejlődött, és a deepfakes egyre gyakoribbá vált. Néhányat “álhírként” használtak fel. Másokat online csalási ügyekben idéztek. A Facebook még a platformjáról is kitiltotta őket, mert attól tart, hogy az emberek manipulálására használhatják őket.
Prof Li saját szoftverét soha nem az emberek becsapására tervezték, és szerinte kizárólag vállalkozásoknak fogják értékesíteni. Úgy véli azonban, hogy egy veszélyes szellem készül kiszabadulni a palackból, mivel a deepfake technológia rossz kezekbe kerül – és a demokrácia veszélybe kerül.
“Az első kockázat az, hogy az emberek már most felhasználják a deepfakes létezését arra, hogy hiteltelenítsék a valódi videó bizonyítékokat. Még ha van is felvétel arról, hogy valamit csinálsz vagy mondasz, azt mondhatod, hogy az egy deepfake volt, és nagyon nehéz bizonyítani az ellenkezőjét.”
Politikusokat világszerte vádoltak már meg azzal, hogy ezt a trükköt használják, az egyik ilyen Joao Doria, a brazíliai Sao Paulo kormányzója. A házas politikus 2018-ban azt állította, hogy egy videó, amelyen állítólag egy orgián látható, deepfake volt – és senki sem tudta egyértelműen bizonyítani, hogy nem az volt.
A nagyobb veszélyt azonban az jelenti, hogy a deepfake-eket politikai dezinformációs kampányokban is felhasználhatják – mondja Li professzor. “A választásokat már most is manipulálják álhírekkel, képzeljük el, mi történne, ha a keverékhez kifinomult deepfake-eket is hozzáadnánk?”
A Pelosi asszonyéhoz hasonló klipeket eddig sem volt nehéz hamisítványként kiszúrni. De ha finoman csinálják, szerinte az emberek elkezdhetnek szavakat adni a politikusok szájába, és senki sem tudná meg – vagy legalábbis mire kijavítják, már túl késő lenne.”
“Ez még veszélyesebb lehet a fejlődő országokban, ahol a digitális írástudás korlátozottabb. Ott valóban befolyásolhatná, hogyan reagálna a társadalom. Akár olyan dolgokat is terjeszthetnél, amelyek miatt emberek halnak meg.”
De egyesek, mint például a holland Deeptrace kiberbiztonsági cég, amely nyomon követi a technológiát, úgy vélik, hogy a deepfake-ek miatti pánik túlzás.
Giorgio Patrini igazgató szerint viszonylag könnyű meggyőző deepfake-et készíteni, ha az utánzott személyt nem ismerjük. De ha egy politikus vagy híresség, akit milliók ismernek, sokkal nehezebb. “Az emberek egyszerűen túlságosan ismerik a hangjukat és az arckifejezésüket” – mondta a BBC-nek.”
“Képesnek kell lenned arra is, hogy megszemélyesítsd a hangjukat, és olyan dolgokat mondass velük, amelyeket hitelesen mondanának, ami korlátozza a lehetőségeidet.”
“Sötét nap”
Mellett, bár elfogadja, hogy a legfejlettebb – és veszélyesebb – deepfake-eszközök szabadon elérhetőek nyílt forrásként az interneten, szerinte ezek használatához is szakértelem szükséges. “Ez nem jelenti azt, hogy ne válnának szélesebb körben árucikké és hozzáférhetővé, de nem hiszem, hogy ez olyan gyorsan történne. Szerintem évekbe fog telni.”
Mindamellett Patrini úr úgy véli, hogy a megkülönböztethetetlen mélyhamisítványok előbb-utóbb általánossá válnak, és komoly politikai fegyverként használhatók.
A Facebook decemberben ízelítőt adott abból, hogyan nézhet ez ki, amikor eltávolított a platformjairól egy több mint 900 hamis fiókból álló hálózatot, amely állítólag megtévesztő gyakorlatokat alkalmazott a jobboldali ideológia online terjesztésére.
A fiókok nevezetesen mesterséges intelligencia segítségével generált hamis profilképeket használtak hamis arcokról.
Mind Li professzor, mind a Deeptrace létrehozott deepfake-felismerő eszközöket, bár elismerik, hogy a kiberbűnözők fáradhatatlanul próbálják majd kijátszani őket.
Patrini úr azonban optimista: “Még ha a deepfake-ek annyira kifinomultak is, hogy az emberek nem tudják megkülönböztetni őket, hiszem, hogy képesek leszünk kifinomultabb eszközöket létrehozni a kiszűrésükre. Olyan ez, mint a vírusirtó szoftver – folyamatosan frissülni és fejlődni fog”.”