Deepfake – keď vás zmysly (ne)klamú

Slovenská sporiteľňa sa do predvianočného obdobia rozhodla nasadiť televízny spot, v ktorom sa divákom prihovára hlas podobný hlasu zosnulého herca Júliusa Satinského. Zo samotnej reklamy, ani z popisku pod videom na Youtube sa to síce priamo nedozvieme, ale v skutočnoti nejde o Satinského autentický hlas, ale hlas vytvorený pomocou algoritmov umelej inteligencie, teda tzv. deepfake. Predlohou pre tento deepfake sa stali texty zo Satinského knihy Moji milí Slováci. Okolo reklamy sa následne rozprúdila diskusia nielen medzi odborníkmi, ale aj medzi bežnými ľuďmi. Niektorí z nich boli nadšení, iní zaskočení, niektorí nemilo prekvapení, či dokonca znechutení, pričom sa na pretras dostala aj etickosť takéhoto počinu. Do tejto debaty si dovoľujem vstúpiť z pozície človeka, ktorý sa zaoberá digitálnou etiku a obzvlášť etikou umelej inteligencie.

Dobrý deepfake nemusí byť zlý

Slovo deepfake nemá v slovenčine svoj ustálený preklad a zvyčajne sa z angličtiny ani neprekladá. Veľmi voľne by sme snáď mohli hovoriť o dôkladnom podvrhu alebo dôveryhodnej napodobnenine, čo však znie trocha neohrabane a navyše sa tým stratí dôležitá slovná hračka. Na vytvorenie deepfake obsahu sa totiž zväčša využívajú algoritmy umelej inteligencie, predovšetkým tzv. hlbokého strojového učenia (z ang. deep learning). A odtiaľ je aj to slovíčko deep v slove deepfake. 

Význam slova deepfake môžeme chápať buď v užšom kontexte ako video alebo audio obsah, v ktorom vystupujú umelo vytvorené postavy, ktoré sú však na nerozoznanie od skutočných ľudí. Ale existujú aj širšie definície. Napríklad podľa nového návrhu Európske komisie na reguláciu umelej inteligencie (tzv. Akt o umelej inteligencii) je deepfake chápaný ako obrazový, zvukový alebo video obsah, ktorý by niekto mohol mylne považovať za pravý a ktorý sa podobá nielen existujúcim osobám, ale aj miestam, udalostiam, či dokonca predmetom. Dokonca môžeme hovoriť aj o textovom deepfake. V rámci neho generujú algoritmy text, ktorý sa buď snaží simulovať prejav konkrétnej osoby, ako v tejto ukážke nekonečnej debaty režiséra Wernera Herzoga a filozofa Slavoja Žižeka, alebo len vytvoriť dojem, že daný text bol napísaný ľudskou rukou.

Deepfake nadobúda v diskusiách zväčša negatívne konotácie. Nepodceňujme však aj jeho pozitívny význam. Lebo v súvislosti s deepfake môžeme hovoriť nielen o zneužití, ale aj o jeho praktickom využití. Napríklad v umení a zábavnom priemysle. 

Mnohí z čitateľov určite zaregistrovali využitie deepfake vo filmoch či seriáloch Star Wars, kde znova ožili postavy stvárnené nežijúcmi hercami. Textový deepfake zas pomáha uľahčiť prácu novinárov pri generovaní správ zo športových zápasov. Pozornosť vyvolal  aj album skladieb hudobných legiend z klubu 27, či možnosť vypočuť si nikdy neprednesený prejav prezidenta Kennedyho, ktorý mal odznieť v Dallase roku 1963. 

O zneužití deepfaku nemusíme hovoriť ani v pripade satiry, či rôznych vtipných scénok, napríklad pomocou tzv. face swap aplikácií, aj keď toto použitie sa už pohybuje na hrane, za ktorou stoja napríklad deepfake vo forme revenge porn

Na druhú stranu poznáme mnohé vtipné videá politikov a verejne známych osôb, pri ktorých sa predpokladá, že sú pripravené znášať istú mieru satiry na svoj účet. Dokonca je možné podobný deepfake obsah využiť aj na osvetovú činnosť. Medzi takéto príklady by sa dali zaradiť deepfake videá prezidenta Obamu, či moderátorky Zlatice Puškárovej. Tie majú za cieľ upozorniť na fakt, že takéto videá už dnes existujú, dajú sa pomerne ľahko vytvoriť a môžu slúžiť aj na oklamanie verejnosti.

Deepfake ako hrozba

Skutočné zneužitie deepfake nastáva práve v situácii, keď si divák alebo poslucháč nie sú vedomí zmeny obsahu a zároveň zatajenie informácie, že nejde o skutočnú osobu, môže viesť k nejakej ujme. 

Napríklad, ak sa zneužije deepfake na to, aby si získal vašu dôveru a prinútil vás urobiť niečo, čo by ste inak nespravili. Takou situáciou môže byť zneužitie deepfake v predvolebnom boji, ak by jedna strana vytvorila napodobeninu svojho politického protivníka, ktorého by potom uviedla v negatívnom svetle pred voličmi. Alebo môže ísť o deepfake ako súčasť hybridnej vojny a cielenej dezinformačnej kampane. Videli sme to napríklad na Ukrajine, keď vznikli deepfake videá prezidenta Zelenského, ktoré vyzývali občanov, aby sa vzdali ruským okupačným vojskám.

Dnes už existujú forenzné nástroje na identifikáciu deepfake, ale tie sú určené predovšetkým pre expertov a výskumníkov. Aj u nás v KInITe sme zapojení do európskeho výskumného projektu vera.ai, ktorý sa venuje odhaľovaniu deepfake v kontexte dezinformačných kampaní. Naši výskumníci sa v rámci tohto projektu zaoberajú detekciou textového deepfake, ktorému sa zatiaľ venovala výrazne menšia pozornosť ako je to v prípade audio a video obsahu. 

Pre laika môže byť identifikácia deepfake veľmi ťažká, ak nie nemožná. Tí všímavejší možno v spomínanej reklame Slovenskej sporiteľne zaregistrovali trochu inú farbu Satinského hlasu, alebo ich prekvapila neobvyklá intonácia. V prípade deepfake videa so Zlaticou Puškárovou zas môžeme pozorovať istú strojenosť postavy, či neprirodzenosť mimiky tváre. Ale ak je deepfake urobený na takej úrovni ako spomenuté dva prípady, môže mať veľká časť populácie problém ho rozpoznať bez predošlého upozornenia, čo dokazujú aj komentáre pod oboma videami.

V takých prípadoch sa dá odporučiť to, čo by sme mali robiť pri prijímaní akejkoľvek novej informácie. Všímať si, odkiaľ obsah pochádza, či ho podporujú aj iné nezávislé zdroje, alebo sa zamyslieť nad tým, či môže byť takýto obsah vôbec v súlade s realitou. Teda či by niečo také mohla daná osoba povedať aj verejne. Znamená to zapojiť svoje kritické myslenie a istú mieru ostražitosti, hlavne ak si nie sme konkrétnou informáciou dostatočne istí. Avšak toto platí nielen o deepfakoch, ale vlastne o všetkom, čo konzumujeme na internete.

O mŕtvych len dobre

Ako sa teda pozerať na deepfake zosnulého človeka? To je dobrá, ale ťažká otázka. Pri žijúcich ľuďoch si môžeme položiť otázku, či daný človek dal súhlas na vytvorenie deepfake videa. Napríklad v prípade videa so Zlaticou Puškárovou moderátorka o kampani vedela a priamo s ňou súhlasila. U mŕtveho takýto súhlas samozrejme získať nevieme. Z právneho hľadiska by nás určite zaujímal názor členov rodiny alebo ľudí, ktorí spravujú pozostalosť danej osoby, či jeho autorské práva. V prípade reklamy Slovenskej sporiteľne napríklad vieme o súhlase dcéry pána Satinského s vytvorením deepfake obsahu na základe jeho diela. 

Z etického hľadiska však môžeme ísť ešte ďalej za požiadavky práva. V tom prípade sa môžeme napríklad pýtať, či by daná osoba súhlasila s podobným deepfake obsahom, resp. či by bol takýto obsah v súlade s jej hodnotovými postojmi a svetonázorom. Z tohto pohľadu by bolo napríklad nemorálne vytvoriť video s Georgeom Harrisonom, ako propaguje nejakú bravčovú paštétu, ak bol počas svojho života ortodoxný vegán a ochranca práv zvierat. 

Čo však v prípade, ak by sa nedalo z postojov osoby počas jej života určiť jej postoj voči konkrétnemu použitiu jej podobizne, resp. jej vzťah k nejakej komerčnej značke? V prípade Petera Cushinga, alebo Carrie Fisher (hercov pôvodných Star Wars filmov) by sme mohli doložiť ich pozitívny vzťah k filmovej značke. Preto by použitie ich tváre vo filmoch aj po ich smrti nemuselo byť z tohto pohľadu až tak problematické. Avšak vzťah Júliusa Satinského k zmienenej finančnej inštitúcii nie je verejne známy, a preto sa tu musíme znova oprieť len o súhlas jeho rodiny. 

Máme  však aj ďalšiu možnosť, ako obhájiť použitie deepfaku v podobných prípadoch. Môžeme sa totiž pýtať, do akej miery by bola deepfake obsahom dotknutá dôstojnosť danej osoby alebo jeho blízkych. Syntetický hlas, ktorý by predstavil pána Satinského v nejakej dehonestujúcej podobe, by sa za takéto narušenie dôstojnosti dal považovať. V tomto bode tvorcom reklamy nemožno uprieť snahu, aby deepfake hlasu pána Satinského nehovoril nič, čo by mohlo pôsobiť ponižujúco alebo inak nedôstojne. Už sme spomenuli, že deepfake obsah vychádza zo zmieňovaných hercových autorských textov. 

Pozitívne je aj to, že sa v reklame priamo nespomína konkrétny finančný produkt, napr. hypotéka alebo bežný účet. Skôr sa tu vyjadruje isté posolstvo, ktoré sa s nadhľadom a vtipom snaží prihovárať divákom, a s ktorým sa vie stotožniť aj niekto, kto nie je klientom danej banky. Škoda, že sa tento nadhľad už nepodarilo udržať aj na webovej stránke, z ktorej je návštevník rovno presmerovaný na ďalšie produkty banky.

Úprimný deepfake? 

Na začiatku sme spomínali reguláciu systémov umelej inteligencie, tzv. Akt o umelej inteligencii (AIA). Ten okrem definície deepfake obsahu prichádza aj so zaujímavou požiadavkou na transparentnosť AI systémov. V tomto kontexte AIA uvádza, že použitie umelej inteligencie na vytvorenie deepfake by malo byť vždy dostatočne zrejmé a jasné

Cieľom požiadaviek na transparentnosť systémov je predchádzať situáciám, v ktorých by mohlo dôjsť k zmäteniu adresáta najmä v situáciach, kedy to nemusí byť zrejmé zo samotného kontextu, ako je to v prípade už spomínaných vtipných scénok a satiry. 

Pred kontaktom človeka s deepfake by preto malo byť dostatočne jasne uvedené, že ide o napodobeninu, nie o skutočný autentický obsah. V prípade uvedenej reklamy väčšina ľudí pravdepodobne pochopila, že hlas, ktorý sa podobá hlasu zosnulého herca, nie je autentický. Avšak minimálne na podvedomej úrovni môže u niektorých z ľudí, ktorí sa dostali do kontaktu s obsahom, dôjsť k zmäteniu, resp. k vytvoreniu emócie k produktu len preto, že si ju hneď na začiatku mylne spojili s osobou, ktorá sa k danej veci vlastne nevyjadrila. 

Takáto požiadavka na transparentnosť je kľúčová a určite nie je samoúčelná. Má totiž aj svoj ďalší, omnoho hlbší rozmer. Systémy umelej inteligencie zďaleka nie sú len technologickými hračkami, ale majú aj svoj socio-technický charakter. To znamená, že na jednej strane odrážajú naše hodnoty a postoje, na druhej strane môžu svojím pôsobením výrazne ovplyvňovať životy iných, a to aj v širšom spoločenskom merítku. Napríklad ak necitlivým nasadením tvárovej biometrie vo verejných priestranstvách vytvoríme časom v ľuďoch pocit strachu a prenasledovania. Alebo ak zahltením online priestoru dezinformáciami podkopeme dôveru ľudí v racionalitu a nahradíme ju pravdou filtračných bublín. Rovnako tak aj systematické vystavenie deepfake obsahu môže viesť časom k strate dôvery ľudí v realitu. K presvedčeniu, že človek dnes nemôže veriť už ani vlastným zmyslom. A to by mal každý silný a mienkotvorný subjekt, určite vziať do úvahy.