Hlavní obsah

Algoritmy bez morálky: hrozba pro naše hodnoty?

Foto: Wizard Michal by OpenAI DALL-E

AI transformuje naši společnost, ale co když se její algoritmy učí z předsudků? AI není neutrální. Odráží a zesiluje hodnoty a předsudky společnosti, ve které vzniká. Jaká tedy bude AI, když se řídí chybnými daty a hodnotami?

Článek

Umělá inteligence (AI) se vkrádá do všech oblastí našeho života. Ovlivňuje, co vidíme na sociálních sítích a také to, jak rychle najdeme práci. A dokonce už i to, zda nás policie zastaví na ulici. Ale co se stane, když se AI bude řídit chybnými daty a hodnotami? Může se stát hrozbou pro naše základní svobody a principy demokratické rovnosti?

Je „Velký bratr“ neboli diktátor z románu 1984 ve zcela důsledně totalitním státě skutečně jen fikce? Letos to bude 75 let, co vyšla tato kniha George Orwella. Předestřela svět, v němž nezáleží na tom, co člověk vidí, ale co mu režim umožní vidět.

A k životu jej probudila rádoby nevinná, ovšem velmi drsně zneužitá propagandistická poznámka poradkyně amerického prezidenta Trumpa – Kellyanne Conwayové. Na otázku, proč Bílý dům lže ohledně počtu lidí na Trumpově inauguraci, Kellyanne Conway odpověděla: „Nebuďte tak dramatičtí. Tiskový mluvčí pouze poskytl alternativní fakta.“

Bílý dům totiž tvrdil, že na inauguraci přišlo nejvíce lidí v historii. Novináři ale prostřednictvím fotografií snadno doložili, že to je lež. A „alternativní fakta“ zjevně drsně připomněla jednu z podstatných kategorií Orwellova románu – tzv. newspeak.

Zjednodušeně řečeno byl v románu ‚newspeak‘ používán jako řeč, kterou vládnoucí totalitní režim zavedl proto, aby lidé už mohli myslet a vyjadřovat se pouze v souladu s tím, co režim chce a povoluje. Což Donald Trump uvedl v reálný život. Co myslíte, když poštval dav přívrženců na Kapitol, bude se štítit použít AI k tomu, aby si „vylepšil“ svůj kredit a znásobil svou moc a vliv?

Mnoho lidí vnímá AI jako zázračný nástroj, který vyřeší všechny problémy. Sní o autonomních autech, které zjednoduší dopravu, o chytrých robotech, kteří se postarají o únavnou práci a o algoritmech, které nám pomohou najít si ideálního partnera. Ale realita je složitější. Algoritmy jsou totiž jen tak dobré jako data, na kterých se učí. A pokud tato data obsahují předsudky a nerovnosti, AI je jen zpevní a rozšíří.

Několik příkladů z praxe:

  • V USA algoritmus pro predikci kriminality nesprávně označil za rizikové osoby především Afroameričany, čímž je vystavil většímu policejnímu dohledu a stigmatizaci. Studie z roku 2016 ukázala, že algoritmus používaný v New Yorku a Los Angeles označil za tzv. za rizikové osoby až 44 % Afroameričanů, ale jen 23 % bílých. V červnu 2020 byl v Michiganu zatčen, vyslýchán a přes noc zadržován černoch za zločin, který nespáchal. Byl omylem identifikován systémem AI.
  • V roce 2022 v Kanadě chatbot poskytl nesprávné informace o slevě na letenku, což vedlo k finanční ztrátě a zmeškání důležité schůzky. Zákazník byl informován, že si může zakoupit plnou letenku a poté požádat o slevu, což nebylo pravda. Air Canada se pokusila distancovat od chyby tím, že prohlásila, že chatbot je "odpovědný za své vlastní činy", což jí soud jako omluvu neuznal s tím, že ona je plně odpovědná za data, která mu poskytla a tato letecká společnost byla následně odsouzena k zaplacení odškodnění.
  • AI se naučila nenávidět lidi. Chatbot Tay od Microsoftu po 24 hodinách “učení” z interakcí s lidmi prohlásil na Twitteru, že "Hitler měl pravdu, že nenáviděl Židy"? Cílem bylo vytvořit chatbota plného slangu, který by povýšil kvalitu konverzace mezi stroji a lidmi na novou, lidštější úroveň.
  • Společnost IBM vynaložila na vývoj systému umělé inteligence na pomoc v boji proti rakovině. Její chatbot Watson doporučil, aby pacientovi s rakovinou se závažným krvácením podávaly léky, které by mohly krvácení zhoršit. Lékařští experti zaznamenali několik případů nebezpečných a chybných návrhů terapie hrozící smrtí pacienta.
  • Amazon chtěl zautomatizovat svůj náborový proces, aby urychlil výběr kandidátů na tisíce pracovních míst, které mají. Všechno skončilo katastrofou v oblasti vztahů s veřejností, protože se ukázalo, že systém je sexistický a upřednostňuje bělochy. Tréninková data použitá k vytvoření modelu totiž byla s největší pravděpodobností nevyvážená, což následně vedlo ke zkreslení výběru kandidátů.
  • V Číně zavedený systém sociálního kreditu hodnotí chování občanů a na základě jejich "skóre" jim umožňuje nebo znemožňuje přístup k určitým službám, jako je cestování, zaměstnání a vzdělání. Tento systém vyvolává velké obavy z diskriminace a zneužívání moci. Takže velký bratr už existuje.
Foto: Wizard Michal by OpenAI DALL-E

Algoritmy bez morálky nejsou problém AI, ale nás všech.

Co s tím můžeme dělat?

  • Zvyšovat povědomí o rizicích AI. Lidé by měli vědět, jak AI funguje a jaká data se k jejímu trénování používají. Měli bychom kriticky vnímat výsledky, které AI generuje, a ptát se na jejich etické a morální důsledky.
  • Posilovat regulaci AI. Zákon by měl chránit lidi před diskriminací a nespravedlivým zacházením ze strany AI. Vlády by měly zavést jasná pravidla a standardy pro vývoj a používání AI, která by zohledňovala etické a morální aspekty.
  • Podporovat etický vývoj AI. Vývojáři AI by měli dbát na to, aby jejich systémy byly spravedlivé a transparentní. Měli by se aktivně zabývat otázkami předsudků a diskriminace a hledat způsoby, jak je eliminovat z algoritmů.
  • Podporovat kritické myšlení a mediální gramotnost. Lidé by se měli naučit kriticky vnímat informace, které se k nim dostávají, ať už z médií, nebo z algoritmů AI. Měli by si být vědomi potenciálních manipulací a předsudků a aktivně je vyhledávat.

Otázky, které bychom si měli začít pokládat k zamyšlení:

  • Jaké hodnoty by AI měla reflektovat? Kdo by měl být zodpovědný za to, aby AI byla spravedlivá a transparentní? Jak můžeme zabránit tomu, aby se AI zneužívala k diskriminaci a útlaku?

Chyby AI nejsou jen technickým problémem, ale především problémem politickým. Musíme si uvědomit, že AI není neutrální. Odráží a zesiluje hodnoty a předsudky společnosti, ve které vzniká. Pokud je společnost diskriminační a nerovná, AI tyto vlastnosti jen zopakuje a prohloubí.

Problémy, které AI přináší, nejsou jen technologického rázu, ale právě hluboce hodnotové, a tudíž politické. Řešení nespočívá pouze ve vylepšení technologií, ale v adresování a nápravě systémových nerovností.

Jaká opatření a regulace budou zapotřebí k tomu, aby algoritmy sloužily ke skutečnému veřejnému dobru, zůstává klíčovou otázkou pro budoucnost naší digitalizované společnosti.

Jediný způsob, jak se vyhnout diktatuře AI, je naučit se s ní žít v harmonii. A to znamená, že ji musíme krmit správnými daty a učit ji morálce.

Jinak se nám může stát, že se AI stane nástrojem zla, ne nepodobným Velkému bratrovi z románu G. Orwella. A to by pak byla pořádná „velká chyba“.

Zdroje:

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz