Spoločenské predsudky v slovenskej umelej inteligencii: rodové predsudky

Ak sa systémy umelej inteligencie nepoužívajú správne, môže nastať situácia, že sa tieto systémy správajú voči určitým ľuďom diskriminačne alebo netolerantne. O zaujatosti modelov umelej inteligencie pracujúcich so slovenčinou vsak nevieme takmer nič. KInIT získal od Veľvyslanectva USA v Bratislave financovanie na výskum fenoménu predsudkov v umelej inteligencii. Cieľom projektu je zvýšenie povedomia o tejto problematike a poskytnutie poznatkov a odporúčaní rôznym zainteresovaným stranám v oblasti umelej inteligencie na Slovensku. Projekt je realizovaný v spolupráci s odborníčkami a odborníkmi z USA.

Umelá inteligencia sa stáva neodmysliteľnou súčasťou nášho každodenného života. Prichádzame s ňou do kontaktu pri používaní smartfónov, prehliadaní internetových stránok, vyhľadávaní informácií, práci s fotografiami, online nakupovaní, atď. Hoci nám aplikácie umelej inteligencie poskytujú mnoho užitočných funkcií, prinášajú so sebou aj isté riziká. Medzi najvýznamnejšie výzvy pre umelú inteligenciu môžeme zaradiť aj otázku spoločenských predsudkov a férovej AI. 

Pod spoločenskými predsudkami rozumieme jav, keď sa výstupy inteligentných systémov   vyznačujú diskriminačným, netolerantným alebo podobne problematickým prístupom voči rôznym demografickým skupinám (napr. na základe rodu, etnického pôvodu, veku), predovšetkým ak ide o ľudí z marginalizovaných komunít. 


Systémy umelej inteligencie sa vytvárajú pomocou údajov zhromaždených z reálneho sveta. Môže sa teda stať, že umelá inteligencia preberie od nás aj naše kultúrne a historické predsudky. Otázky týkajúce sa algoritmickej férovosti, spravodlivosti a nediskriminácie sa preto stávajú kľúčovými v aktuálnych diskusiách o dôveryhodnosti systémov umelej inteligencie v otvorených a demokratických spoločnostiach. Tieto otázky sú tiež predmetom regulácie, napríklad v súvislosti s antidiskriminačnými zákonmi.

Rodové predsudky sa môžu prejavovať rôznymi spôsobmi, ako napríklad:

  1. Nesúlad výstupov v prípadoch, kedy umelá inteligencia robí predikcie pre rôzne skupiny ľudí (napr. model, ktorý predpovedá, koho prijať do zamestnania, môže dať nižšie skóre ženám),
  2. Rozdielna chybovosť, keď umelá inteligencia robí viac chýb pri spracovaní údajov od rôznych skupín ľudí (napr. umelá inteligencia na rozpoznávanie reči, ktorá robí viac chýb pri spracovaní hlasov žien),
  3. Generovanie problematického obsahu, keď umelá inteligencia, ktorá sa používa na generovanie textu alebo obrázkov, vyprodukuje problematický obsah.

Musíme si uvedomiť, že aj v systémoch, ktoré používa široká verejnosť, môžu existovať podobné predsudky. Je preto dôležité, aby sme sa ich pokúsili opraviť skôr, než spôsobia neželanú škodu.

Za náš prvý projektový cieľ sme si stanovili preskúmať rodové predsudky v systémoch umelej inteligencie, ktoré sú relevantné pre Slovensko a slovenský jazyk. V rámci nášho výskumu budeme zbierať údaje od ľudí, ktoré potom využijeme na metodické vyhodnotenie a kontrolu vybraných systémov umelej inteligencie. Prínosom tohto projektu budú už samotné údaje, ktoré by mohli v budúcnosti využiť nielen odborníčky a odborníci na umelú inteligenciu, ale aj z iných výskumných oblastí. Môžu byť použité napríklad na to, aby zmerali zaujatosť svojich systémov umelej inteligencie. Prípadne na to, aby sa pokúsili ich zaujatosť eliminovať.

Naším druhým cieľom je zvyšovanie povedomia verejnosti o tejto problematike. Mnohí ľudia na Slovensku si totiž neuvedomujú, ako často používajú umelú inteligenciu a aké riziká sa s jej používaním spájajú. Budeme preto komunikovať nielen s odbornou, ale aj s laickou verejnosťou. Naším cieľom v tomto projekte je položiť základy pre ďalší vývoj systémov umelej inteligencie na Slovensku, ktoré nebudú vykazovať problematické správanie. To by mohlo prispieť k zvýšeniu kvality života ľudí a zlepšeniu demokratickej a občianskej spoločnosti.

Stefan Oresko

Sme presvedčení, že systémy umelej inteligencie nemôžeme vnímať čisto z technologického hľadiska a bez toho, aby sme brali do úvahy aj ich spoločenský rozmer.

Štefan Oreško, Researcher

Kempelen Institute of Intelligent Technologies

Project team

Matúš Pikuliak
Research Consultant
Juraj Podroužek
Lead and Researcher
Marián Šimko
Lead and Researcher
Štefan Oreško
Researcher
Andrea Hrčková
Researcher
Matúš Mesarčík
Ethics and Law Specialist
Adrián Gavorník
Research Intern
Kamil Burda
Researcher

Tento projekt je financovaný Veľvyslanectvom USA v Bratislave.