Svet si už pomaly začal zvykať na hoaxy, fakenews a dezinformácie, ktoré sa v poslednom desaťročí stali každodennou súčasťou fungovania sociálnych sietí a internetových médií. Keď už sme sa ich ako tak naučili rozoznávať, odhaľovať a overovať, prišlo niečo, čo celý problém posunulo na celkom nový level. Deepfakes totiž tvorí umelá inteligencia a v budúcnosti môžu predstavovať veľmi vážny problém.
Predstavte si nasledovnú modelovú situáciu. Na internete možno nájsť obrovské množstvo fotografií Elvisa Presleyho. Umelá inteligencia ich zozbiera, napriek tomu, že by jej pokojne stačila jediná. S využitím tzv. deep learning (hĺbkové učenie) a neurónových sietí potom tvár slávneho rock&roll-ového speváka prirobí na tvár ktoréhokoľvek človeka, ktorého fotografia, alebo videozábery sa nachádzajú na internete. Neurobí to však tak, aby to vyzeralo ako práca v skicári. Urobí to tak, že milióny ľudí po celom svete aspoň na moment uveria, že Elvis je naozaj živý. Deepfakes možno použiť ako žart, útok, pomstu, ale aj propagandu či manipuláciu más.
Čo je deepfake a ako vzniká?
Deepfake je technika vytvárania falošného obsahu a to nielen vo forme fotografií, ale najmä mimoriadne realistických videí. Je založená na umelej inteligencii, ktorá dokáže upravovať vizuálny materiál napríklad tak, že fotografiu tváre namodeluje do existujúceho videozáberu. Pri technike strojového učenia zvanej generative adversarial network (GAN) založenej na neurónových sieťach, jej na to stačí jediná fotografia. V jednoduchosti, umelá inteligencia dokáže z jedinej vašej fotografie, upraviť prejav amerického prezidenta v Bielom dome tak, že tým prezidentom budete vlastne vy sám/sama.
Po prvýkrát sa takéto videá objavili už v roku 2017. Ich vývoj prebiehal viac-menej súbežne ako v akademickom prostredí, tak aj v amatérskych online komunitách. Ešte v roku 1997 dokázali vedci vytvoriť program, ktorý vedel do existujúceho videozáznamu doplniť inú zvukovú stopu a zábery upraviť tak, aby to celé vyzeralo čo najreálnejšie. Deepfakes sú však ešte o level zákernejšie a technicky omnoho komplikovanejšie. Na spôsob ako ich vytvárať nakoniec prišli vedci z Tel Avivu ako aj Supasorn Suwajanakorn, ktorý dostal deepfakes do povedomia verejnosti vďaka videu s Barackom Obamom.
Falošné porno
Kým vo vedeckej obci sa hovorilo o veľkom míľniku vo využívaní umelej inteligencii, amatérski vývojári deepfakes takmer okamžite zneužili a to tým najplytkejším možným spôsobom. V roku 2017 sa začali deepfakes videá objavovať na portáli reddit. V pomerne krátkom čase sa na internete objavilo obrovské množstvo deepfake pornografického materiálu, v ktorom boli zneužité fotografie známych celebrít. Na aktivity fungujúceho kanálu na portáli Reddit vtedy ako prvá upozornila v americkom Vice Samantha Cook.
Na výrobu deepfake pornografických materiálov boli zneužité napríklad Emma Watson, Katy Perry, Taylor Swift či Scarlett Johansson. Práve tá pre Washington Post v roku 2018 povedala, že kým celebrity sú pred takýmto plytkým zneužívaním chránené svojou slávou (takémuto obsahu verejnosť neuverí), pre všetky ženy na svete predstavujú deepfakes riziko a ohrozenie dôstojnosti. Kanál na Reddite obsahujúci pornografický obsah bol nakoniec vymazaný. Dnes tu môžete nájsť iba kanál, kde ľudia pridávajú deepfakes videá a fotografie bez pornografického obsahu s názvom f.
Manipulácia a propaganda
Deepfakes pornografický materiál je však len slabým odvarom toho, akú hrozbu táto technológia predstavuje. Stačí si len predstaviť, že vďaka umelej inteligencii môžeme vytvoriť video, v ktorom ktokoľvek povie čokoľvek čo chceme a výsledok bude vyzerať tak reálne, že bude len veľmi ťažké presviedčať masy o tom, že to nie je pravda. Väčšina odborníkov sa zhoduje v tom, že najväčším rizikom je možné zneužitie deepfakes na politické účely, šírenie propagandy a manipuláciu verejnosti. O tom, aký dokonalý môže byť výsledok, vás určite presvedčí video z dielne Buzzfeed v ktorom americký filmár a herec Jordan Peele prepožičia slová bývalému americkému prezidentovi Barackovi Obamovi.
Ožiť môže história i umenie
Umelá inteligencia schopná vytvárať deepfakes materiál ponúka nevyčerpateľné množstvo pozitívnych možností. Ako príklad môže poslúžiť nedávna štúdia inžinierov spoločnosti Samsung. Tým sa podarilo z jediného záberu vytvoriť pohybujúcu sa a rozprávajúcu Monu Lízu. S využitím umelej inteligencie oživili jedno z najznámejších umeleckých diel. Algoritmus spoločnosti Samsung je ukážkou toho, že deepfakes môžu mať široké využitie vo virtuálnej realite, vzdelávaní, pri tvorbe špeciálnych efektov či v kinematografii, ako aj toho, aké jednoduché je deepfakes zábery vytvoriť. Otázkou je, či ľudstvo dokáže nové metódy využívať pre spoločné blaho vo väčšej miere než zneužívať ich na šírenie falošného obsahu.
Manipulácia s video zábermi, fotografiami či audio záznamami nie je vo svete žiadnou novinkou. Novinkou je však precíznosť a dokonalosť, ktorú deepfakes predstavujú. V 21. storočí sa musíme pripraviť na to, že aj to čo vidíme na vlastné oči, viac nemusí byť pravda.
Jedol psie žrádlo, celý čas bol nahý: Táto reality šou prekonala rekordy, milióny ľudí sledovali mučenie
Herci, ktorí boli počas natáčania Harryho Pottera vymenení: Niekedy to bolo fiasko, inokedy tvorcovia nemali na výber
Terapia červeným svetlom nie je zázračná, tvrdí odborníčka: Vedeckých dôkazov je málo a chýbajú, nie je to všeliek
ANKETA: Nepáči sa mi to, malo by sa to odstrániť. Slovákov sme sa opýtali, čo si myslia o Separovom sprejovaní v Himalájach
Káva za 3,60 eura nám udrela do nosa a nevoňala: Boli sme v novom podniku, ktorý otvorili majitelia reštaurácie z Na nože
Prirovnávajú ju ku Kate Middleton, takto ju mal Putin žiadať o ruku: Kto je Alina Kabajevová, údajná nová cárovná v Kremli?
Ste tu za hodinu, najete sa od 5 eur: O tomto európskom klenote ste možno nikdy nepočuli, musíte ho vidieť
Detské nosové vakcíny proti chrípke boli fuč za pár hodín. Vieme, kedy príde posledná dávka, niektorí rodičia sú zúfalí
Budú v sobotu na Sviatok Všetkých svätých otvorené obchody? Pozrite sa, ako to bude po novom, reťazce hlásia zmeny
Radik bol postrach Ruska: Škrtil 90-ročné ženy, tvrdil, že ich to nebolí a len sa chcel najesť. Náhodou ho zachytilo video












Nahlásiť chybu v článku