Napis wideo Filmy Deepfake: Czy naprawdę można wierzyć w to, co się widzi?

„Jesteśmy już w punkcie, w którym nie można odróżnić deepfake’ów od prawdziwych rzeczy”, mówi BBC profesor Hao Li z Uniwersytetu Południowej Kalifornii.

„To przerażające.”

Jesteśmy przy instalacji deepfake informatyka na Światowym Forum Ekonomicznym w Davos, która daje wskazówkę, co ma na myśli.

Jak inne narzędzia deepfake, jego oprogramowanie tworzy komputerowo zmanipulowane filmy wideo ludzi – często polityków lub celebrytów – które są zaprojektowane tak, aby wyglądały na prawdziwe.

Najczęściej obejmuje to „zamianę twarzy”, w której twarz celebryty jest nakładana na podobiznę kogoś innego.

Gdy siedzę, kamera filmuje moją twarz i wyświetla ją na ekranie przede mną; moje rysy są następnie cyfrowo odwzorowywane.

Podpis pod zdjęciem Prof. Hao Li mówi, że deepfakes są „niebezpieczne”
  • Czym są deepfakes?

Jedna po drugiej twarze aktora Leonardo DiCaprio, byłej premier Wielkiej Brytanii Theresy May i piłkarza Lionela Messi są nakładane na obraz mojej własnej twarzy w czasie rzeczywistym – ich rysy i mimika płynnie łączą się z moimi.

Efekty, choć imponujące, są bardziej komiczne niż złowieszcze, ale prawdopodobnie mogą zmylić niektórych widzów. Jednak kiedy profesor pokazuje mi inny film deepfake, nad którym pracował, a który nie został jeszcze publicznie ujawniony, całkowicie rozumiem, o co mu chodzi.

Pokazuje on słynnego światowego przywódcę wygłaszającego przemówienie i jest niemożliwy do odróżnienia od prawdziwego.

„Pomyślcie tylko o potencjale nadużyć i dezinformacji, jaki moglibyśmy zaobserwować w przypadku tego typu rzeczy”, mówi profesor Li.

Deepfakes trafiły na pierwsze strony gazet dopiero w 2017 roku po tym, jak prymitywnie wyprodukowane filmy zaczęły pojawiać się w Internecie, zazwyczaj obejmując zamianę twarzy celebrytów lub manipulację.

Image copyright Hao Li
Image caption Alec Baldwin podszywający się pod prezydenta Trumpa: Prawdziwy Alec Baldwin jest po lewej stronie – czy mógłbyś powiedzieć?

Niektóre były send-ups znanych postaci, głos przez impresjonistów lub komików. Jednak w zdecydowanej większości przypadków twarze znanych osób zostały nałożone na twarze gwiazd porno, ku wielkiemu zaniepokojeniu tych, do których były skierowane.

Od tego czasu technologia – która opiera się na złożonych algorytmach uczenia maszynowego – szybko ewoluowała i deepfakes stały się bardziej powszechne. Niektóre z nich zostały wykorzystane jako „fake news”. Inne były przywoływane w sprawach o oszustwa internetowe. Facebook nawet zakazał ich ze swojej platformy w obawie, że mogą być wykorzystywane do manipulowania ludźmi.

Prof Li własne oprogramowanie nigdy nie zostało zaprojektowane do oszukiwania ludzi i będzie sprzedawane wyłącznie do firm, mówi. Uważa on jednak, że niebezpieczny dżin może wkrótce uciec z butelki, ponieważ technologia deepfake wpada w niepowołane ręce – a demokracja jest zagrożona.

„Pierwsze ryzyko polega na tym, że ludzie już wykorzystują fakt istnienia deepfake’ów do dyskredytowania prawdziwych dowodów wideo. Nawet jeśli istnieje materiał filmowy, w którym robisz lub mówisz coś, możesz powiedzieć, że to był deepfake i bardzo trudno jest udowodnić, że jest inaczej.”

Image copyright Getty Images
Image caption Deepfake tech wykorzystuje tysiące nieruchomych obrazów osoby

Politycy na całym świecie zostali już oskarżeni o korzystanie z tej sztuczki, jednym z nich jest Joao Doria, gubernator Sao Paulo w Brazylii. W 2018 roku żonaty polityk twierdził, że wideo rzekomo pokazujące go na orgii było deepfake – i nikt nie był w stanie udowodnić niezbicie, że tak nie było.

Jednakże większym zagrożeniem jest potencjał deepfake’ów do wykorzystania w politycznych kampaniach dezinformacyjnych, mówi prof. Li. „Wybory są już manipulowane za pomocą fałszywych wiadomości, więc wyobraź sobie, co by się stało, gdybyś dodał do tej mieszanki wyrafinowane fałszywki?”

Do tej pory klipy takie jak ten z panią Pelosi nie są trudne do zauważenia jako fałszywki. Ale zrobione subtelnie, mówi, ludzie mogliby wkładać słowa w usta polityków i nikt by się o tym nie dowiedział – lub przynajmniej do czasu, kiedy zostałoby to poprawione, byłoby już za późno.

„To może być jeszcze bardziej niebezpieczne w krajach rozwijających się, gdzie umiejętności cyfrowe są bardziej ograniczone. Tam mógłbyś naprawdę wpłynąć na to, jak zareagowałoby społeczeństwo. Moglibyście nawet rozprzestrzeniać rzeczy, przez które giną ludzie.”

Ale niektórzy, jak holenderska firma Deeptrace, zajmująca się bezpieczeństwem cybernetycznym, która śledzi tę technologię, uważają, że panika związana z deepfake’ami została wyolbrzymiona.

Dyrektor Giorgio Patrini mówi, że stosunkowo łatwo jest zrobić przekonujący deepfake, gdy osoba naśladowana jest kimś, kogo nie znamy. Ale jeśli jest to polityk lub gwiazda znana milionom, jest to znacznie trudniejsze. Ludzie są po prostu zbyt dobrze zaznajomieni z ich głosami i mimiką twarzy”, mówi BBC.

„Musiałbyś również być w stanie podszyć się pod ich głos i sprawić, by mówili rzeczy, które powiedzieliby wiarygodnie, co ogranicza to, co możesz zrobić.”

„Mroczny dzień”

Dodatkowo, podczas gdy akceptuje on najbardziej wyrafinowane – i niebezpieczne – narzędzia deepfake są swobodnie dostępne w otwartym źródle w Internecie, mówi on, że nadal wymagają one wiedzy specjalistycznej, aby z nich korzystać. „Nie znaczy to, że nie staną się one szerzej dostępne, ale nie sądzę, aby stało się to tak szybko. Myślę, że zajmie to lata.”

Niemniej jednak, pan Patrini uważa, że nieodróżnialne podróbki staną się w końcu powszechne i mogą zostać wykorzystane jako poważna broń polityczna.

Oferując przedsmak tego, jak to może wyglądać, Facebook w grudniu usunął sieć ponad 900 fałszywych kont ze swoich platform, które rzekomo używały oszukańczych praktyk, aby wcisnąć prawicową ideologię do sieci.

W szczególności, konta używały fałszywych zdjęć profilowych fałszywych twarzy wygenerowanych przy użyciu sztucznej inteligencji.

Zarówno Prof. Li jak i Deeptrace stworzyli narzędzia do wykrywania deepfake, chociaż przyznają, że cyberprzestępcy będą pracować bez wytchnienia próbując je obejść.

Jednakże Pan Patrini jest optymistą: „Nawet jeśli deepfakes są tak wyrafinowane, że ludzie nie są w stanie ich odróżnić, wierzę, że będziemy w stanie stworzyć bardziej wyrafinowane narzędzia do ich wykrywania. To jak oprogramowanie antywirusowe – będzie ciągle aktualizowane i ulepszane.”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.