Aj umelá inteligencia sa môže pomýliť

Umelá inteligencia sa občas správa inak, ako by bolo očakávané či dokonca žiadané. Viaceré príhody zo života dokazujú, že nielen človek sa môže pomýliť. Chyby spôsobené algoritmami umelej inteligencie môžu mať rovnako nebezpečné následky. Pozrime sa na niekoľko kontroverzných až nebezpečných situácií, o ktoré sa postarali inteligentné stroje.

Chatovací robot, z ktorého sa stal rasista

Jedným z najznámejších príkladov toho, ako dokážeme priviesť inteligentný stroj na nesprávne chodníčky, je chatovací robot (tzv. chatbot) Tay. Zámerom tvorcov z firmy Microsoft bolo vytvoriť inteligentný stroj, ktorý by sa sám učil od ľudí naokolo. A to takým spôsobom, že bude konverzovať na sociálnej sieti Twitter so skutočnými používateľmi. Takto si mal zdokonaľovať svoje vedomosti a znalosti o svete. Nanešťastie však natrafil na skupinu používateľov, ktorí z neho vychovali rasistu s veľmi nevhodným správaním. Postupne sa stalo jeho správanie neakceptovateľné a tvorcovia ho museli nakoniec vymazať. Situácia len dokazuje, aké dôležité je pri výchove prostredie.

Inteligentný domáci asistent, ktorý navádza deti na nebezpečné hry

Ďalším nebezpečným príkladom zo sveta inteligentných robotov je asistent firmy Amazon, známy pod názvom Alexa. Alexa je akýsi hlasový domáci asistent určený na rozpoznávanie a vykonávanie hlasových povelov. Bežne sa využíva na získavanie informácií o okolitom svete ako zistenie aktuálneho počasia, spustenie piesne alebo vykonanie jednoduchých operácií typu objednanie lístkov do divadla. 

Mnohí rodičia ho využívajú aj na zabavenie svojich detí, čo však nie je vždy dobrý nápad. V poslednom období sa vyskytlo niekoľko situácií, kedy sa robot nesprával pri interakcii s deťmi veľmi inteligentne.

Nechať dieťa osamote s touto hračkou môže byť veľmi nebezpečné. Dokazuje to príbeh malého dievčatka, ktoré sa s robotom hralo hru. V nej robot navrhoval úlohy, ktoré malo dievčatko plniť. Keď dievčatko splnilo úlohu, vypýtalo si ďalšiu. Málokto by asi čakal, že bude nasledovať úloha, pri ktorej je potrebné získať kovovú mincu a strčiť ju do elektrickej zásuvky. Našťastie k splneniu tejto úlohy nedošlo a hranie s robotom sa predčasne skončilo.  

Jedným omylom sa však problémy robotickej pestúnky nekončia. Ďalším znepokojujúcim príkladom je situácia, keď robot neporozumel výslovnosti batoľaťa. Nedokázal určiť, akú pesničku má pre dieťa zahrať, a tak namiesto pesničky spustil prehrávanie pornografickej stránky

Nemenej zaujímavým prehreškom tejto robotickej pestúnky sa stala interakcia so 6-ročným dievčaťom, ktorému sa podarilo presvedčiť, aby jej robotický asistent objednal drahý domček pre bábiky a 2 kilogramy obľúbených sušienok. Keď prišiel kuriér s tovarom, rodičia vôbec netušili, kto stál za objednávkou. Až neskôr, po prehratí histórie konverzácie s robotom, prišli na príčinu problému.

Nebezpečný lekár v podaní umelej inteligencie a modelu GPT-3

Využívanie sily umelej inteligencie v oblasti rozhovorov neobchádza ani medicínu. Najmä v Japonsku je veľmi populárny predaj robotov pre starších ľudí, ktorí sa nemajú s kým porozprávať. Súčasné pokusy o vytvorenie robota-psychológa však ešte neprinášajú želané ovocie

Presvedčili sa o tom aj pri testovaní robota pre oblasť psychológie, ktorý využíval robustný jazykový model GPT-3. Ide o jazykový model generujúci text. Vygenerovaný text sa na prvý pohľad nelíši od textov, ktoré by napísal človek, avšak aj význam textu hrá v reálnom živote význam. Svedčí o tom odpoveď na otázku pacienta, či by mal spáchať samovraždu. Model mu bez zbytočného otáľania odpovedal, že mu to naozaj odporúča.

Keď je robot sám doma…

Nechať v byte zapnuté inteligentné zariadenie bez dozoru môže vyjsť veľmi draho. Vedel by o tom rozprávať obyvateľ Hamburgu bývajúci na šiestom poschodí paneláku. Keď bol v noci v práci, domáci asistent sa asi začal nudiť. Krátko po polnoci si púšťal hudbu tak hlasno, že susedia v paneláku zavolali políciu. Keďže v byte nikto neotváral, polícia prerazila dvere a robota “umlčala”. Keď muž prišiel ráno z práce, čakalo ho prekvapenie. Okrem pokuty za rušenie nočného pokoja si musel zaplatiť aj nové dvere a výjazd polície.

Keď robot nevie, na čo sú okná…

Mnoho z nás dnes hľadá odpovede na svoje otázky primárne cez vyhľadávanie na internete. Vyhľadávače sa síce správajú čoraz inteligentnejšie, no napriek tomu je ešte stále čo zlepšovať. Existujú aj triviálne otázky, na ktoré sú odpovede vyhľadávačov minimálne úsmevné. A to platí aj pri zapojení populárneho modelu GPT-3, s ktorým sa hrali výskumníci z Allenovho inštitútu pre umelú inteligenciu (Allen Institute for AI). Keď položili modelu otázku, na čo slúžia okná, dostali nečakanú odpoveď: “Aby sme mohli vyhodiť psa”.

Keď umelá inteligencia nesprávne interpretuje obraz

Využívanie algoritmov umelej inteligencie v oblasti rozpoznávania obrazu (napr. identifikácia objektov alebo tvárí) je tiež veľmi populárne. Dnes sa najviac skloňujú oblasti ako samojazdiace autá či rozpoznávanie ľudí. Zlyhania v týchto doménach však prinášajú fatálne následky.

Keď si umelá inteligencia pomýli človeka s lietajúcou taškou

Tragická dopravná nehoda sa prihodila samojazdiacim autám firmy Uber. Vodič, ktorý mal na jazdu dozerať, nedával pozor a spoliehal sa na auto. Chodkyňa tlačiaca bicykel, ktorá nečakane vstúpila autu do cesty, prišla pri zrážke o život. Ide o prvú známu smrteľnú nehodu, kde svoj podiel viny nesie umelá inteligencia. Záznamy ukázali, že algoritmus pravdepodobne nesprávne vyhodnotil objekt pred autom a človeka si pomýlil s letiacou taškou. To bol dôvod, prečo sa prekážke nepokúsil vyhnúť.

Keď umelá inteligencia zamení futbalovú loptu s hlavou rozhodcu

Kuriózna situácia nastala pri futbalovom zápase, kde sa rozhodli nasadiť inteligentné kamery, aby automaticky sledovali loptu a prinášali tak kvalitnejší záznam zo zápasu. Žiaľ, jedným z čiarových rozhodcov bol holohlavý muž a jeho hlava bola pre algoritmus príliš veľký problém. Kamerový systém tak miestami nesledoval futbalovú loptu, ale hlavu rozhodcu. Televízni diváci tak nemali zo zápasu najlepší zážitok.

Keď umelá inteligencia nevie, ako vyzerajú otvorené oči

Zúfalé situácie nastávajú, keď sa vyžaduje potvrdenie identity napríklad na základe fotografie a algoritmus umelej inteligencie nedokáže črty tváre rozpoznať. Takúto situáciu zažil ázijčan na Novom Zélande. Nakoľko ľudia ázijského typu majú menšiu veľkosť očí, algoritmus neuznal fotografiu na pase s upozornením, že pre správne rozpoznanie fotografie je potrebné otvoriť oči. Je to len jeden príklad z mnohých, kedy algoritmy nedokážu rozpoznať tvár, najmä ak ide o človeka s črtami tváre, ktoré nie sú až také bežné.

Keď umelú inteligenciu oklame škraboška

O diskutabilnej kvalite algoritmov na detekciu tváre sa tiež presvedčili vietnamskí experti na bezpečnosť. Mobilné telefóny značky Apple disponujú systémom na odblokovanie zariadenia pomocou tvárovej biometrie. Inžinieri pri predstavení demonštrovali vysokú kvalitu, kedy systém dokázal rozlíšiť aj takmer identické dvojčatá. Dvojča majiteľa údajne nedokázalo odblokovať jeho telefón. V skutočnosti to s tou kvalitou také dobré nebude, keďže sa odborníkom na bezpečnosť podarilo systém oklamať ručne vyrobenými škraboškami.

Keď robotický hlas okradne človeka…

O nepríjemnú situáciu sa môže pričiniť nielen chyba umelej inteligencie, ale aj jej dokonalosť. Zaujímavá krádež peňazí pomocou konverzačného robota nastala v Anglicku. Robotický hlas bol natoľko dôveryhodný, že dokázal cez telefón presvedčiť asistenta firmy, aby vykonal nezvyčajnú bankovú transakciu a odoslal 220 000 eur z firemného účtu. Pracovník bol presvedčený o tom, že ide o príkaz jeho šéfa a transakciu vykonal. 


Umelá inteligencia bude čoraz väčšou súčasťou našich každodenných životov. Aj preto sa u nás v Kempelenovom inštitúte zameriavame na jej výskum a zlepšovanie. Ak vás tieto úsmevné až znepokojujúce príklady zo života zaujali, prečítajte si viac o vysvetliteľnej a interpretovateľnej umelej inteligencii. Alebo si vypočujte čo robiť, keď má umelá inteligencia predsudky. Tiež sa môžete zúčastniť prednášok v rámci Better_AI_Meetup, ktorý organizujeme pre všetkých nadšencov AI.