Facebook Twitter RSS
Czech English French German Russian Spanish

Umělá inteligence je rasistická a diskriminuje. A bohužel ji to nelze odnaučit!

Hodnocení uživatelů:  / 1
NejhoršíNejlepší 

Je to tak, již několikrát se takto umělá inteligence projevila. Článek krátce popisuje, jak umělá inteligence funguje, a hlavně se zamýšlí nad tím, zda a jak lze její „rasismus“ odnaučit.

Nejdříve krátce o umělé inteligenci (dále „AI“ neboli z angličtiny „Artificial Intelligence“). V podstatě je to počítač, který se ale neřídí přesně daným programem, nýbrž funguje podobně jako lidský mozek – simuluje neurony s jejich vzájemnými spojeními. V praxi se AI nejprve tzv. „učí“, co vlastně má dělat, a až poté dává výsledky. Je to k neuvěření, ale stačí jí předložit tisíce stránek česko-anglických textů, a AI se „sama naučí“ překládat z angličtiny do češtiny a naopak. A čím více textů k učení dostane (nejlépe z různých oborů), tím lepší pak překlad je.

  • umela-inteligence-je-rasisticka-a-diskriminuje-a-bohuzel-ji-to-nelze-odnaucit

Ve skutečnosti se v průběhu učení vytvoří v počítači milióny a milióny nejrůznějších spojení, které ve výsledku pak dávají žádoucí výsledky – přitom tato spojení se vytvářejí samy v průběhu učení, není to program vytvořený programátorem. Z toho pak vyplývá určitá nevýhoda AI – nevíme přesně co kdy udělá, nechová se přesně dle instrukcí programu, ale podle toho, co se naučila. AI se sice může naučit řídit auto, určitě se to naučí lépe než člověk a bude mít nižší nehodovost než lidští řidiči, ale nikdy nebude 100% jisté, že s autem nesjede do příkopu. Ale prostě to bude dělat méně častěji než lidé.

Jako příklad uvedu zajímavost, kterou jsem sám náhodou našel, viz překlad z Google překladače:

Je zřejmé, že i když Google nedávno začal v překladači používat AI a skokově tím překlady vylepšil, má to ještě mouchy. Podobně jako AI určitě někdy s někým sjede do příkopu, tak zde AI špatně přeložila 70-ti letou ženu coby šedesátiletou. A přitom „opravit“ AI v tomto případě není jenom kdesi v paměti namísto „šedesát“ napsat „sedmdesát“ k anglické číslovce „70“, protože takto to tam nikde uložené není. Oprava probíhá spíše tak, že AI opět na nějakou dobu přepneme do učícího módu, a správný překlad jí v různých kontextech několikrát ukážeme. To vše jen na ilustraci, že AI je prostě trochu komplikovanější, je to důležité na pochopení zbytku článku.

A teď k tomu rasismu a diskriminaci. Je známý případ z USA, kdy AI byla použita v bankovním ústavu pro posuzování bonity klientů. Poté, co se AI „naučila“ na základě dat o minulých klientech, byla nasazena k posuzování bonity budoucích klientů. Jak se ukázalo, tak AI diskriminovala klienty tmavé pleti, tedy bělochům stabilně dávala lepší bonitu než černochům. Prostě se z minulých dat naučila, že běloši častěji dostávali úvěr a častěji jej spláceli, a podle toho postupovala. De facto tedy klienty diskriminovala podle barvy pleti.

Uvedený případ by asi bylo možno vyřešit tím, že by AI v rámci učení na základě minulých dat prostě nedostávala informace o barvě pleti klientů, a nedostávala by je pak ani v ostrém provozu při posuzování nových klientů. Pak by k takové diskriminaci resp. rasismu nedošlo. Uvažme ale trochu vzdálenější budoucnost, kdy by policisté běžně využívali AI pro vyhledávání potenciálních teroristů. Je realizovatelné, že by policisté měli na sobě umístěné kamery, spojené s AI, a při preventivní pochůzce mezi lidmi po vánočním trhu by kamera automaticky snímala kolemjdoucí (podobně by to prováděly také kamery umístěné např. na sloupech pouličního osvětlení). AI by nejen měla v databázi všechny hledané násilníky a teroristy, ale měla by také „naučeno“, jak poznat pravděpodobného teroristu. Na základě minulých dat by se ale pravděpodobně naučila, že průměrný terorista je spíše muž, a to ve věku mezi 20 až 40 let, tmavé pleti, a s vousy. AI je schopná, na základě videí se skutečnými teroristy, dokonce se i naučit jejich charakteristickou chůzi, oblečení, gesta, nervozitu v obličeji, a podobně.

Ve výsledku pak bude AI jako potenciální teroristy typovat téměř výhradně mladé muslimské muže tmavé pleti. Jinak řečeno nebude postupovat korektně, ale bude postupovat diskriminačně a rasisticky. Jak ale bylo výše popsáno, AI nelze tomto případě jaksi „zakázat“ posuzování podezřelých dle barvy pleti a dle pohlaví, protože na videích použitých k učení je prostě barva pleti i pohlaví zaznamenáno, AI to prostě pozná. AI nelze v tomto ohledu vnímání barvy pleti a pohlaví „odnaučit“.

Docházíme tak k jádru problému. Pokud policie takto AI použije k typování možných teroristů (a bude je tedy přednostně dokladovat a prohlížet), vyvolá to lavinu stížností na nekorektní, diskriminační a rasistické metody. Na druhou stranu, pokud policie takto AI nevyužije, nebo prostě bude její doporučení ignorovat, pravděpodobně se efektivnost včasného odhalení teroristického útoku silně redukuje, a budou naopak stížnosti na neschopnost policie. Pokud bychom měli být do budoucna striktně korektní a měli bychom postupovat nediskriminačně, budeme muset používání AI pro odhalování potenciálních teroristů zakázat. Je to dobré řešení?

Autor: Ivan Rychtr

Zdroj: https://rychtr.blog.idnes.cz/blog.aspx?c=637650

 

podporte-width

 

Komentáře

Pro přidávání komentářů se musíte přihlásit / registrovat

Facebook komentáře