Kroniky AI Aktu: Urobme základné práva a slobody opäť veľkolepými

V našich predchádzajúcich blogoch sme priblížili všeobecné pozadie a filozofiu európskeho Nariadenia o umelej inteligencii (AI Act, AIA) a jeho rozsah pôsobnosti. V poslednej časti sme sa venovali tzv. červeným čiaram (časť 1 a časť 2). Dnes sa budeme venovať jednému z jeho nosných pilierov – základným právam a slobodám a súvisiacim požiadavkám na posudzovanie vplyvov systémov umelej inteligencie na tieto práva. 

Rámec základných práv EÚ 

V Charte základných práv Európskej únie sú uvedené základné práva a slobody, ktoré majú jednotlivci v EÚ. Tento kľúčový dokument, ktorý zahŕňa osobné, občianske, politické, hospodárske a sociálne práva, bol prijatý v roku 2000 a právne záväzným sa stal v roku 2009. Je súčasťou primárnej legislatívy EÚ, čo znamená, že základné práva sú zakotvené ako základné hodnoty Európskej únie. Charta zahŕňa široké spektrum práv a slobôd vrátane práva na život a dôstojnosť každého človeka, osobnú slobodu a bezpečnosť, slobodu myslenia, náboženského vyznania, prejavu a zhromažďovania či zásadu rovnosti, ktorá zaručuje nediskrimináciu. Charta ako kľúčový prvok identity EÚ stelesňuje demokratické hodnoty, právny štát a rešpektovanie ľudskej dôstojnosti a ovplyvňuje kľúčové politiky v oblastiach, ako je migrácia, bezpečnosť, sociálna spravodlivosť a teraz aj umelá inteligencia. 

Úloha základných práv v EÚ je významná a mnohostranná. Poskytuje záväzný právny rámec, ktorý od európskych inštitúcií a členských štátov vyžaduje, aby tieto práva dodržiavali pri aplikácii práva EÚ, a tým presadzovali spravodlivosť a rovnosť. Zároveň dáva jednotlivcom možnosť namietať porušovanie ich práv zo strany inštitúcií EÚ alebo členských štátov, ktoré právo Únie aplikujú. V neposlednom rade sú základné práva nevyhnutné aj na ochranu jednotlivcov z hľadiska zodpovednosti spoločností a bezpečnosti produktov uvádzaných na trh EÚ vrátane systémov umelej inteligencie.

Prečo je potrebné uvažovať o základných právach počas životného cyklu AI

Existuje niekoľko zdokumentovaných prípadov, kedy nasadenie systémov AI viedlo k porušeniu základných práv a slobôd. Dôležitým príkladom je nasadzovanie technológie na rozpoznávanie tváre orgánmi činnými v trestnom konaní. Vo viacerých krajinách EÚ vrátane Francúzska a Holandska polícia využívala nástroje na rozpoznávanie tváre pomocou AI na identifikáciu osôb na verejných priestranstvách. Táto prax vyvolala značné obavy týkajúce sa súkromia a slobody prejavu, keďže môže viesť k invazívnemu monitorovaniu a odrádzať od verejného protestu a nesúhlasu. Dôkazy naznačujú, že takéto systémy sa využívajú na monitorovanie protestov a verejných zhromaždení, čo môže jednotlivcov odradiť od uplatňovania ich práva na pokojné zhromažďovanie.

Povinnosti v rámci AI Aktu

Dodržiavanie základných práv je výslovne uznané ako jeden z cieľov AIA v článku 1. Zároveň je porušovanie základných práv spôsobené nasadením a používaním nevhodných systémov AI považované za jeden z hlavných dôvodov, prečo bol AI Akt vôbec prijatý. Je tu však viac než len toto jedno ustanovenie. AIA obsahuje aj konkrétne povinnosti, ktoré je potrebné dodržiavať aby sa zabezpečila ochrana základných práv a slobôd. 

Tieto povinnosti majú podobu požiadavky vykonať posúdenie vplyvu na základné práva („fundamental rights impact assessment“ – FRIA). FRIA je proces posudzovania, ktorého cieľom je identifikovať konkrétne riziká pre práva jednotlivcov alebo skupín jednotlivcov, ktoré môžu byť ovplyvnené systémom AI, a určiť opatrenia, ktoré sa majú prijať v prípade, že sa tieto riziká materializujú. V článku 27 sa ďalej upresňuje, že okrem identifikácie rizík, nositeľov práv a protiopatrení by mal výsledok tohto posúdenia zahŕňať aj opis procesov nasadzujúceho subjektu a obdobie, v ktorom sa má vysokorizikový systém AI používať, frekvenciu jeho používania a tiež aj opis opatrení na zabezpečenie ľudského dohľadu, ktoré sa majú zaviesť v súlade s inštrukciami na používanie.

FRIA je povinná pre viaceré subjekty v rôznych prípadoch:

Pre poskytovateľov vysoko rizikových systémov AI / AIA Čl. 9 ods. 2 písm. a):

  • Ako súčasť širšieho posúdenia rizika

Pre subjekty nasadzujúce vysokorizikové systémy AI / AIA Čl. 27 ods. 1: 

  • Ak je nasadzujúci subjekt verejnoprávnym subjektom alebo súkromnoprávnym subjektom poskytujúcim verejné služby (bez ohľadu na sektor nasadenia)
  • Ak sa systém používa na posúdenie úverovej bonity osôb alebo posúdenie rizikovosti pre životné/zdravotné poistenie

Pre orgány činné v trestnom konaní / AIA Čl. 5  ods. 2:

  • Ak sa systém používa na biometrickú identifikáciu na diaľku v reálnom čase (napr. rozpoznávanie tváre) vo verejne prístupných priestoroch

Pre poskytovateľov modelov a systémov umelej inteligencie na všeobecné účely (GPAI):

  • Ak sa systémy GPAI používajú ako vysoko rizikové systémy AI samy o sebe alebo sú komponentmi iných vysoko rizikových systémov AI / AIA Recitály 85 a 97
  • Ak modely GPAI nesú systémové riziko / AIA Čl. 55 ods. 1 písm. b) s ohľadom na Čl. 3 ods. 65

Hoci FRIA podľa AI Aktu nie je povinná nad rámec vyššie uvedeného rozsahu, poskytovatelia aj nasadzovatelia systémov AI môžu potenciálne stále čeliť právnym postihom za porušenia základných práv. Členské štáty môžu byť takisto brané na zodpovednosť za nedodržiavanie štandardov v oblasti ľudských práv v rámci svojej jurisdikcie. Táto povinnosť sa preto vzťahuje aj na aplikácie AI, ktoré nie sú klasifikované ako vysoko rizikové podľa AIA, ale napriek tomu majú vplyv na základné práva, keďže tieto práva sú chránené bez ohľadu na klasifikáciu rizika systému. V dôsledku toho odporúčame všetkým poskytovateľom a nasadzujúcim subjektom, ktorí majú podozrenie, že ich AI systém má akýkoľvek vplyv na niektoré zo základných práv, aby zvážili realizáciu FRIA ako súčasť širšieho systému riadenia rizík. 

KInIT vám rád pomôže – naša FRIA

V súčasnosti neexistuje žiadna oficiálna metodika alebo vzor na vykonávanie FRIA podľa požiadaviek AI Aktu, avšak výskumníci a verejné inštitúcie doteraz poskytli hromady metodík. Niektoré z nich sú v rozsahu krátkeho románu, niektoré sú sťažka aplikovateľné na systémy AI a väčšina si vyžaduje pomoc tímu facilitátorov z rôznych oblastí ako je právo, etika či sociológia alebo aspoň určité znalosti z oblasti základných práv vrátane judikatúry.

Preto sme sa po vykonaní prieskumu dostupných metodík rozhodli vytvoriť vlastnú – prispôsobenú na posudzovanie systémov AI a zosúladenú so všetkými požiadavkami AI Aktu. Experti z KInITu vás prevedú celým procesom, ktorý pozostáva z niekoľkých workshopov a ich odborného posúdenia, a vy dostanete report so všetkým potrebným na splnenie povinností podľa už spomínaného článku 27. Na konci posúdenia budete mať prehľad o vplyvoch vášho systému na základné práva so súvisiacimi rizikami a tiež niekoľko protiopatrení pripravených na implementáciu. V prípade akýchkoľvek otázok týkajúcich sa tejto služby nás neváhajte kontaktovať

V našom ďalšom blogu sa bližšie pozrieme na vysoko rizikové aplikácie AI a na to, ako ich identifikovať.