Algoritmy veľkých platforiem potrebujú nezávislý dohľad

Verejný tlak núti platformy k záväzkom zmierniť šírenie nepravdivých informácií či propagandy ich algoritmami. Ráznejšie opatrenia však neuplatňujú a externej kontrole sa skôr bránia. Pribúdajú preto iniciatívy vykonávajúce nezávislé štúdie merajúce tendencie šírenia nepravdivých informácií a propagandy na princípe tzv. čiernej skrinky.

Algoritmy veľkých platforiem značne prispievajú k šíreniu nepravdivých informácií online. Preferujú totiž vzrušujúci, emotívny či inak atraktívny obsah pri ktorom ich používatelia zostávajú dlhšie (a teda sú viac vystavení speňažiteľnej reklame). Dezinformácie, misinformácie ale aj bulvár či iné povrchné formy majú tieto vlastnosti častejšie a preto majú tendenciu byť odporúčané viac, než “nudný” či “nezáživný” kredibilný obsah. Platformy o preferenciách svojich algoritmov vedia, sú však neochotné ich zásadnejšie meniť: boja sa narušenia svojich príjmov. 

O (ne)plnení záväzkov k predchádzaniu dezinformácií veľkými platformami

Verejný tlak v západnej časti sveta núti platformy k záväzkom zmieriť šírenie nepravdivých informácií ich algoritmami. Príkladom takýchto záväzkov v EÚ na dobrovoľnej úrovni je Code of Practice on Disinformation, ktorý má byť po zisteniach regulátorov posilnený už v tomto roku. Tieto záväzky sa neskôr pretavia aj do legislatívy v rámci tzv. Digital Services Act.

Pri plnení doterajších dobrovoľných záväzkov však zatiaľ išlo skôr o zdržovaciu taktiku: záväzky sú ťažko merateľné, kontrolovateľné či vymožiteľné. Deklarované efekty sú skôr malé. Platformy využívajú rôzne techniky blue-washingu (írečitejšie: opíjanie rožkom). Platformy boli totiž doteraz zaviazané iba k self-reportingu a pravidlá boli navyše príliš všeobecne definované. Takto si platformy mohli napríklad vybrať obdobie, z ktorého budú hlásiť dáta Európskej komisii, prípadne spôsob agregácie týchto dát. Problematickejšie obdobia, ako napríklad čas pred voľbami alebo menšie krajiny ako Slovensko tak neboli samostatne vyhodnotené. Takto dokázali platformy z prvých regulatív elegantne vykľučkovať. 

Obľúbenou reguláciou medzi platformami je tiež samoregulácia: platformy vydávajú vlastné (niekedy spoločné) kódexy svojej činnosti (codes of conduct), ktoré sa zaväzujú dodržiavať. Tieto kódexy však často zostávajú na pol ceste k želanému stavu. Keďže však predstavujú “aspoň niečo”, niektorých kritikov umlčia a nechávajú mnohé aktivity skryté vo vnútorných procesoch, ktorých výstupy sa síce verejnosť občas dozvie, ich pravdivosť sa však často nedá overiť.

Ako sa dajú robiť nezávislé audity na Youtube

Nezávislé audity fungujú na iných princípoch ako self reporting. Ide o metódu systematického skúmania obsahu prezentovaného používateľom platformou. Napríklad je možné merať frekvenciu odporúčania potenciálne škodlivého obsahu pri rôznych podmienkach (napr. demografickom profile používateľa či jeho histórii na platforme). Niekedy sa audity robia v spolupráci s ľudskými používateľmi, inokedy sú zapojené boty (naprogramovaní agenti), ktorí vystupujú ako používatelia a systematicky zaznamenávajú reakcie platformy na svoje predprogramované správanie.

Príkladom takéhoto auditu je výskum1, ktorý vyhral cenu za najlepší článok na veľmi selektívnej vedeckej konferencii ACM Recommender Systems. V ňom auditujeme platformu YouTube, o odporúčaní ktorej sa vie veľmi málo. Platforma funguje ako čierna skrinka a používatelia nevedia, ako a na základe čoho im videá odporúča. V našej štúdii sme sledovali, či na YouTube vznikajú dezinformačné filtračné bubliny (filter bubbles) a či sa z nich vedia používatelia dostať pozeraním videí, ktoré dokazujú a vysvetľujú nepravdivosť predmetných dezinformácií. 

Prítomnosť dezinfomačných filtračných bublín na Youtube sme v našej štúdii ukázali v prípade zoznamov odporúčaných videí (nie však vyhľadávacích výsledkov). Zistili sme tiež, že YouTube sa v šírení nepravdivých informácií a zavádzajúcich videí oproti predchádzajúcej podobnej štúdii veľmi nezlepšil. Viac dezinformačných videí o vakcinácii sme čakali aj kvôli prebiehajúcej pandémii, vo veľkom množstve sa však šírili aj fámy o udalostiach zo septembra 2011. Na druhej strane sme svojím výskumom dokázali, že pozeranie “pravdivých” videí pomohlo skoro pri všetkých témach znížiť množstvo dezinformácií, ktorým používatelia čelia.

Obr. Ukážka z nášho auditu odporúčania konšpiračných tém na Youtube. Dáta sme porovnávali s auditom, ktorý v minulosti urobil kolektív okolo Husseina2. -1 označuje videá, ktoré konšpirácie vyvracajú, +1, ktoré ich šíria.

Nezávislé audity Facebooku a ich umlčiavanie

O tom, že sa platformám nezávislé audity odporúčaného obsahu nepáčia, sa už presvedčili nejedni výskumníci. Nečudo, ide v podstate o odhaľovanie ich slabých miest. Posledný škandál si spôsobil Facebook, ktorý zmazal účty, stránky aj aplikácie odborníkom z Newyorskej univerzity. Títo akademici skúmali transparentnosť politických reklám na Facebooku. Výskum odhalil okolo 86 tisíc zavádzajúcich reklám, z ktorých takmer štvrtina bola financovaná pochybnými komunitami. Výskumníci na svoje zistenie využili dobrovoľníkov, ktorí im sami sprístupnili na tento účel svoje dáta. Facebook ako dôvod zatvorenia účtov cynicky uvádza ochranu súkromia používateľov.


“Klepnutiu po prstoch” sa nevyhli ani interné štruktúry Facebooku. Konkrétne tím CrowdTangle, ktorý prešiel pod vlastníctvo Facebooku. Vďaka tomuto nástroju na analýzu a vyhodnocovanie facebookových dát sa napríklad zistilo aj to, že extrémnejšia pravica získavala na Facebooku oproti inému obsahu príliš veľa pozornosti. Tieto výsledky ukázali Facebook ako nevyvážený zdroj s veľkou konzervatívnou komorou ozvien (echo chamber). A práve tento obraz sa exekutíve platformy nepáčil. Niektorí z nich boli dokonca toho názoru, že Facebook by mal namiesto otvárania svojich dát na analytické účely publikovať iba vlastnoručne a selektívne vybrané dátové reporty. Zatiaľ CrowdTangle svoje služby poskytuje naďalej, no ľudia blízki tomuto nástroju sa obávajú, že to tak nemusí byť aj v budúcnosti. Facebooku totiž podľa nich viac záleží na zlepšovaní svojho obrazu ako bezproblémovej platformy nad snahou reálne riešiť problémy, ktoré platforma má.

Vo výskume pokračujeme

Naša štúdia je len jedným z našich príspevkov pri boji s dezinformáciami. Naším dlhodobým zámerom je vytvoriť nástroje, ktorými bude možné nezávisle vyhodnocovať podiel algoritmov sociálnych médií na šírení dezinformácií. Tomu nám pomôže aj zapojenie do konzorcia EDMO, ktoré sa boju proti dezinformáciám venuje na európskej úrovni.


 1Matus Tomlein, Branislav Pecher, Jakub Simko, Ivan Srba, Robert Moro, Elena Stefancova, Michal Kompan, Andrea Hrckova, Juraj Podrouzek, and Maria Bielikova. 2021. An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting and Recent Behavior Changes. The ACM Conference Series on Recommender Systems

2Eslam Hussein, Prerna Juneja, and Tanushree Mitra. 2020. Measuring Misinformation in Video Search Platforms: An Audit Study on YouTube. Proc.ACM Hum.-Comput. Interact.4, CSCW1, Article 048 (May 2020), 27 pages.