Nevěřte ničemu: Brzy se již nebudeme moct spolehnout ani na vlastní oči!

Žijeme v době, kdy se nedá věřit nejen obrázkům a fotkám, ale ani mluvenému slovu, videozáznamům, anebo dokonce přímým přenosům. Pravdy je na internetu stále méně a následky tohoto vývoje mohou být nedozírné
10.10.2019 - Vilém Koubek


Čchiao-pi-luo Tien-sia, lépe známá jako Její Výsost Čchiao-pi-luo, zůstávala donedávna tajemnou internetovou kráskou, která hrála hry, bavila se s lidmi na chatu a obecně se starala o to, aby byla okouzlující. Její převážně mužské publikum se rozšiřovalo závratnou rychlostí a posílalo jí peněžní dary, za něž Čchiao-pi-luo slibovala různé odměny – pózovala pro diváky, povídala si s nimi, hrála jim na city… A její konto utěšeně rostlo, neboť někteří obdivovatelé jí zasílali v přepočtu i víc než 330 tisíc korun. Bublina nicméně splaskla, když streamerce selhala technika a na obrazovkách diváků se místo snové mladé dívky objevila úplně obyčejná 58letá žena.

Nešťastná náhoda tak obecenstvu odhalila, že ho Její Výsost celou dobu podváděla – na tváři měla „navěšenou“ spoustu velmi chytrých a promyšlených filtrů, které jí měnily vzhled. Před kamerou tak sice skutečně seděla Čchiao-pi-luo, nicméně počítač zajistil, že ji diváci viděli úplně jinak. Velká část uživatelů následně nepříliš překvapivě odběr jejího kanálu zrušila a na internetu se rozhořelo velké drama. Kritika nicméně časem utichne a napětí odezní. Čchiao-pi-luo pak nebude nic bránit, aby si založila nový účet a celý podvod rozjela znovu – tentokrát třeba i ve větším měřítku. 

Lidé, kteří neexistují

Případ odhalené streamerky jasně ilustruje nebezpečí, jež si mnozí z nás neuvědomují a které s každým rokem nabývá na síle. Technologie totiž pokročila tak, že není problém věrohodně měnit či simulovat lidskou vizáž, případně vytvářet zcela umělá individua. Stačí se podívat na mobilní aplikace: FaceApp a jemu podobné nás umějí omladit, udělat staršími nebo zkrášlit. Snapchat zas dovede přetvořit obličej člověka v některé ze zvířat… 

Chytrá zařízení sice často ještě nemají dostačující výbavu, aby tyto transformace v interaktivním prostředí působily věrohodně. Pro klasické počítače s potřebným softwarem však dnes již není nijak složité zfalšovat takřka cokoliv. Například internetová stránka ThisPersonDoesNotExist.com využívá umělou inteligenci k vytváření falešných obličejů, jež jsou v mnoha případech k nerozeznání od těch skutečných. Její základ tvoří program, který zkoumá obrovské množství lidských portrétů, následně je dělí na menší segmenty a podle vlastních propočtů je skládá do nových variací. Stránka tak s každým obnovením generuje další podobenku neexistující osoby. 

Armáda falzifikátů

Za projektem stojí softwarový inženýr Philip Wang, který chtěl generátorem obličejů upozornit na budoucí rizika spojená s převratnou technologií. „Většina lidí si neuvědomuje, jak dokonalá časem umělá inteligence ve vytváření lidských obličejů bude,“ vysvětluje a dodává, že jeho program umí napodobovat také animované postavy, různá písma a třeba i vytvářet falešná graffiti. 

Nebezpečí takové technologie spočívá samozřejmě v tom, že budete-li potřebovat zástup uživatelů, aby například podpořili vaši kampaň nebo zkrátka jen vyvíjeli činnost na vašich internetových stránkách, můžete si je snadno nechat vytvořit. V anonymním internetovém prostředí není nijak komplikované opatřit falešné profily jmény, a dokonce jejich prostřednictvím zanechat pod příspěvky komentáře. Dav vygenerovaných obličejů má potom potenciál strhnout skutečné lidi a v duchu psychologie „stáda“ jim dodat odvahu k činům, na něž by si jinak netroufli. 

Obama skáče, jak program píská

Že problémy mohou nabýt mnohem větších rozměrů, dokázali již v roce 2017 vědci z University of Washington, kteří pomocí programu přiměli domnělého prezidenta Baracka Obamu pronést falešný proslov. Stačila jim k tomu vlastnoručně vytvořená umělá inteligence, jež prozkoumala 17 hodin videozáznamů s projevy prvního muže – a na jejich základě vytvořila dostatečně věrohodnou simulaci Obamových úst. Když pak vědci vzali zvukovou stopu jednoho proslovu a pustili ji přes videozáznam jiného, program zajistil, že v novém videu první muž planety zdánlivě pronesl, co výzkumníci chtěli.

Při bližším zkoumání byla sice ústa při některých pohybech rozmazaná a před dvěma lety bylo stále ještě možné odhalit falzifikát pouhýma očima. Nicméně fakt, že někdo tak důležitý jako prezident USA může v upraveném záznamu působit pro nepozorného diváka přirozeně, je děsivý – zvlášť pokud by se simulace úst a obecně obličeje spojila například s programem Lyrebird, jehož tvůrci v roce 2017 tvrdili, že dokáže napodobit jakýkoliv hlas. Stačí mu pouhá minuta záznamu, z nějž přejme intonaci a další zvukové vlastnosti a využije je k modelování slov, která daný člověk nikdy nevyslovil. 

Hlas ve sluchátku

Ani popsaná technologie není dokonalá a objektivně je mnohem snazší odhalit falešnou mluvu než simulaci obličeje. Nicméně i nedostatky syntetického hlasu se dají zakrýt například ruchem či různými deformacemi. Pokud by k vám počítač promlouval cizím hlasem třeba po telefonu nebo uprostřed hlučného davu, jeho šance vás oklamat podstatně vzrostou. 

Vědci z University of Washington tvrdí, že program na simulaci mluvy vyvinuli, aby vylepšili možnosti komunikace po internetu. Přesto uznávají, že ve špatných rukou by mohl napáchat velké škody. Kdyby se spojil se softwarem pro simulaci zvuku, mohl by kterýkoliv státník světa pronést libovolnou frázi, jež by měla potenciál ovlivnit volby, rozpoutat nepokoje, nebo klidně vyvolat válku

Z fotky do videa

Nepříjemné komplikace však může umělá inteligence v rukou schopných uživatelů způsobit také na mnohem osobnější úrovni. Loni se například vynořila falšovaná pornografie: Počítačově zdatnější jedinci totiž objevili způsob, jak do videí velmi uvěřitelně zabudovat tváře známých osobností. Na síti Discord se navíc jeden uživatel pochlubil, že se mu z 380 fotografií, které stáhl z profilu své bývalé spolužačky na Facebooku, podařilo vytvořit video zdařile zachycující dívku při sexu – který se nikdy neodehrál. Jak málo stačí, aby podobné záběry někdo pustil do světa a například člověku zničil partnerský vztah nebo ho vydíral? 

Internet se stal díky pokročilé technologii místem, kde se na první pohled nedá ničemu věřit. Falešné zprávy a zdroje mají přitom potenciál ničit lidské osudy. Nejistota dál živí paranoii a pod tlakem pochybností se ocitnou i skutečné události: Podle průzkumů až 6 % Američanů nevěří, že astronauti NASA v roce 1969 přistáli na Měsíci. Pokud bychom tento historický milník přesunuli do současnosti, procento nedůvěry by určitě ještě vzrostlo – protože dnešní technologie by si s věrohodnou simulací dosednutí na lunárním povrchu hravě poradily. 

Problém je třeba řešit

Již v roce 2017 se tudíž pro tento způsob pokročilé falzifikace objevilo pojmenování „deepfake“ (z anglického „deep“ a „fake“, tedy „hluboký“ a „falešný“) a začala se vymýšlet metodologie, jež by umožnila odlišit skutečnost od manipulací. V USA na problematice deepfake pracuje vojenská agentura DARPA ve spolupráci s University of Colorado. 

Aby vědci dokázali podvržené obrazové záznamy rozeznat, nejprve se zaměřili na vytvoření svých vlastních. Umělou inteligenci na „lov“ deepfake videí konfrontují s falzifikátem i s původními záběry a přimějí ji všímat si drobných nedokonalostí. Potenciální dopady deepfake si uvědomuje také americký Kongres a dozorem na daném poli pověřil Národní zpravodajskou službu. Podvrhy se zabývá rovněž Evropská unie i řada dalších institucí po celém světě. 

Kdo hlídá internet?

Otázkou zůstává, zda pouhé rozlišování skutečného od falešného problém vyřeší. Pokud se na internetu objeví video, v němž například muslimští imigranti znásilňují bělošku a posléze jí uříznou hlavu, předem vyburcovaní fanatici nebudou čekat, zda o pár hodin později nezazní zpráva, že byl záznam falešný. V danou chvíli dostanou to, co potřebují k ospravedlnění své protiakce, která může vyústit v násilí a zabíjení. Úplně stejně se zachová pákistánský dav po zhlédnutí videa, na němž američtí vojáci střílejí na bezbrannou rodinu, a po okamžité odvetě rádi sáhnou také indičtí hinduističtí extremisté, až uvidí muslimy, jak se baví týráním krávy. Výbušný potenciál je ohromný. 

TIP: Život v době post-faktické: Proč světu vládne nevědomost?

Aby deepfake videa nemohla páchat škody, musely by sociální sítě, streamovací služby a stránky jako YouTube zavést ochranu, jež záběry před zveřejněním prověří. Na poslední zmíněný server přitom každou minutu přibývá zhruba 300 hodin videozáznamů, a spolehlivá kontrola takového průtoku dat se tudíž bude muset opírat o masivní a velmi nákladný výpočetní výkon. Jsou však firmy připraveny omezit zisky a investovat miliardy dolarů do nové a drahé technologie?


Další články v sekci