Dojmy z Winter School on Fairness in AI: Čo znamená byť spravodlivý?

Adrián Gavorník je výskumným stážistom v KInITe a zároveň pokračuje v magisterskom štúdiu v odbore Veda, technika a spoločnosť (STS) na Viedenskej univerzite. Je členom tímu Etika a ľudské hodnoty v technológiách, kde si buduje odborné znalosti v oblasti hodnotenia technológií umelej inteligencie na základe etiky, so špeciálnym zameraním na spravodlivosť a predsudky. Začiatkom tohto roka sa Adrián prihlásil na 1. grécku zimnú školu ACM-W o spravodlivosti v umelej inteligencii a stal sa jedným z úspešných kandidátov. Prečítajte si o jeho dojmoch z podujatia a najzaujímavejších poznatkoch.

Vo februári sa konala 1. grécka zimná škola ACM-W o spravodlivosti v umelej inteligencii. Počas dvoch dní intenzívnej série prednášok a workshopov malo približne 70 študentov z 20 krajín možnosť nadviazať kontakty a diskutovať o otázkach týkajúcich sa spravodlivosti v oblasti umelej inteligencie (AI). V tomto krátkom článku by som sa rád podelil o svoje skúsenosti z pohľadu účastníka. Keďže pochádzam zo spoločenskovedného/ humanitného prostredia, trochu som sa obával, že toto podujatie bude pre skúsenejších študentov a prevažne pre študentov informatiky. Po tom, čo som sa stal úspešným kandidátom, som bol prekvapený, že som sa ocitol v spoločnosti študentov so širokým interdisciplinárnym zázemím.

Ako člen tímu pre etiku a ľudské hodnoty v technológiách v KInITe som mal možnosť zúčastniť sa tohto podujatia, aby som rozšíril svoje chápanie spravodlivosti v AI z viacerých perspektív. Je to dôležité, keďže spravodlivosť je jednou zo základných hodnôt, o ktorých často hovoríme a diskutujeme počas etických hodnotení, ktoré vykonávame s našimi výskumnými tímami a priemyselnými partnermi.

Rôznorodosť účastníkov zimnej školy len potvrdzuje, že pochopenie a práca na férovosti v AI nie je výhradnou zodpovednosťou infromatikov, ale vyžaduje si inklúziu a interdisciplinárnosť. To sa prejavilo aj na väčšine prednášok. Dovoľte mi predstaviť niektorých rečníkov, ich prednášky a niektoré z mojich postrehov Tie budú pozostávať najmä zo zaujímavých prípadových štúdií a rôznych iniciatív a nástrojov, ktorých cieľom je riešiť a merať spravodlivosť v AI.

Jednu z úplne prvých prednášok mal Toon Calders z univerzity v Antverpách. Vo svojej úvodnej prednáške priblížil tému férovosti v strojovom učení. Čo som považoval za kľúčové, bolo to, že poňal pojem férovosti aj historicky. Spomenul niektoré (vyvrátené) historické predpoklady, že strojové učenie bude oslobodené od predsudkova „vnútorných pocitov“. Dnes je zrejmé, že to tak, bohužiaľ, nie je.

Ďalší dôležitý poznatok sa týkal právnych pohľadov na spravodlivosť. Tejto téme sa často venujeme aj počas našich workshopov, kde vyhodnocujeme AI z pohľadu etiky. Keď ide o hodnoty, ako je spravodlivosť, je často nutné, aby sme premýšľali nad rámec základných právnych pojmov. V skutočnosti, ako zdôraznil Toon Calders a je to zrejmé aj z Assessment List for Trustworthy AI (ALTAI), je dôležité zamyslieť sa nad tým, ako je spravodlivosť definovaná, ako sa k nej pristupuje, ale aj ako je kvantifikovaná. Najmä otázky kvantifikácie férovosti a možné definície férovosti boli potom aplikované na špecifické a pomerne dobre známe prípady – rasová zaujatosť v algoritmoch zdravotnej starostlivosti, náborový nástroj Amazonu, ktorý uprednostňoval mužov na technické práce, a algoritmus predikcie recidívy COMPAS.

„Čo to znamená byť spravodlivý?“ bola hlavnou otázkou ostatných prednášok. Prednášajúci poskytli niekoľko spôsobov, ako riešiť túto otázku a ako kvantifikovať spravodlivosť.

Po prvé, mal by sa stanoviť a zvážiť rozdiel medzi skupinovou a individuálnou spravodlivosťou. Každá z nich potom ponúka rôzne zmierňujúce stratégie, napr. štatistická parita v skupinovej spravodlivosti. Inými slovami, znamená to rovnaký prístup k výhodám – zároveň však môže byť v niektorých prípadoch ťažké identifikovať a vysvetliť rozdiely medzi skupinami. Odlišnou (a nezlúčiteľnou) so štatistickou paritou je „rovnaká pravdepodobnosť“, ktorá tvrdí, že chyby sú prijateľné, ale mali by byť podobné pre všetky dotknuté skupiny. Dobrým príkladom, kde sa táto nezlučiteľnosť stáva zjavnou, je poistenie auta, kde sú muži vystavení vyššiemu riziku ako ženy. V tomto prípade by sme mohli chcieť priradiť drahé poistné vysoko rizikovým klientom a lacné poistné klientom s nízkym rizikom, ale zároveň chceme byť spravodliví, pokiaľ ide o pohlavie.

Týmito problémami sme sa naďalej zaoberali  počas panelovej diskusie o spravodlivosti v odporúčacím systémoch. Niektoré teoretické prístupy pri zaobchádzaní so spravodlivosťou v odporúčacích systémoch boli zavedené najmä cez typ štádia, v ktorom sa uplatňujú: štádium predbežného spracovania, štádium priebežného spracovania a štádium následného spracovania.

Okrem toho boli predstavené niektoré komerčné iniciatívy ako Microsoft Responsible AI a relevantné konferencie, ako napríklad ACM Conference on Fairness, Accountability and Transparency (Konferencia o spravodlivosti, zodpovednosti a transparentnosti).

To round off my experience from the ACM Winter School,  I would like to delve deeper and bring attention to some of Na záver by som chcel upriamiť pozornosť na niektoré existujúce iniciatívy a praktické nástroje, ktoré boli predstavené a ktoré mi pomohli pochopiť spomenuté teoretické koncepty.

Ako prvý bol predstavený audit Aequitas. Je to súbor nástrojov s cieľom pomôcť vývojárom a výskumníkom pochopiť rôzne možné definície spravodlivosti a ako tieto ovplyvňujú presnosť ich modelov. Zistil som, že „Strom férovosti“ je obzvlášť užitočný a potenciálne relevantný pre vývojárov pre orientáciu v komplexnej oblasti spravodlivosti v AI.

Platforma AI and Equality je viac než súborom nástrojov. Ponúka skvelý zoznam rôznych zdrojov, ako sú články v časopisoch alebo knihy a prieskumy. Tiež poskytuje podklady pre workshop, ktorého cieľom je upriamiť pozornosť na otázky súvisiace s etikou a spravodlivosťou v umelej inteligencii.

Ľudskoprávna perspektíva na AI je aplikovaná v tomto interaktívnom a praktickom workshope, ktorý umožňuje účastníkom analyzovať rôzne množiny údajov zaujatosti alebo testovať, ako sa navzájom líšia rôzne definície spravodlivosti.

Túto skúsenosť považujem za veľmi dôležitú a prínosnú, keďže téme spravodlivosti a biasov sa plánujeme v rámci tímu Ethics and Human Values venovať aj naďalej, predovšetkým počas etických posudzovaní (assessmentov) AI sýstemov s našimi výskumnými tímami a priemyselnými partnermi