Článek
Umělá inteligence (AI) se vkrádá do všech oblastí našeho života. Ovlivňuje, co vidíme na sociálních sítích a také to, jak rychle najdeme práci. A dokonce už i to, zda nás policie zastaví na ulici. Ale co se stane, když se AI bude řídit chybnými daty a hodnotami? Může se stát hrozbou pro naše základní svobody a principy demokratické rovnosti?
Je „Velký bratr“ neboli diktátor z románu 1984 ve zcela důsledně totalitním státě skutečně jen fikce? Letos to bude 75 let, co vyšla tato kniha George Orwella. Předestřela svět, v němž nezáleží na tom, co člověk vidí, ale co mu režim umožní vidět.
A k životu jej probudila rádoby nevinná, ovšem velmi drsně zneužitá propagandistická poznámka poradkyně amerického prezidenta Trumpa – Kellyanne Conwayové. Na otázku, proč Bílý dům lže ohledně počtu lidí na Trumpově inauguraci, Kellyanne Conway odpověděla: „Nebuďte tak dramatičtí. Tiskový mluvčí pouze poskytl alternativní fakta.“
Bílý dům totiž tvrdil, že na inauguraci přišlo nejvíce lidí v historii. Novináři ale prostřednictvím fotografií snadno doložili, že to je lež. A „alternativní fakta“ zjevně drsně připomněla jednu z podstatných kategorií Orwellova románu – tzv. newspeak.
Zjednodušeně řečeno byl v románu ‚newspeak‘ používán jako řeč, kterou vládnoucí totalitní režim zavedl proto, aby lidé už mohli myslet a vyjadřovat se pouze v souladu s tím, co režim chce a povoluje. Což Donald Trump uvedl v reálný život. Co myslíte, když poštval dav přívrženců na Kapitol, bude se štítit použít AI k tomu, aby si „vylepšil“ svůj kredit a znásobil svou moc a vliv?
Mnoho lidí vnímá AI jako zázračný nástroj, který vyřeší všechny problémy. Sní o autonomních autech, které zjednoduší dopravu, o chytrých robotech, kteří se postarají o únavnou práci a o algoritmech, které nám pomohou najít si ideálního partnera. Ale realita je složitější. Algoritmy jsou totiž jen tak dobré jako data, na kterých se učí. A pokud tato data obsahují předsudky a nerovnosti, AI je jen zpevní a rozšíří.
Několik příkladů z praxe:
- V USA algoritmus pro predikci kriminality nesprávně označil za rizikové osoby především Afroameričany, čímž je vystavil většímu policejnímu dohledu a stigmatizaci. Studie z roku 2016 ukázala, že algoritmus používaný v New Yorku a Los Angeles označil za tzv. za rizikové osoby až 44 % Afroameričanů, ale jen 23 % bílých. V červnu 2020 byl v Michiganu zatčen, vyslýchán a přes noc zadržován černoch za zločin, který nespáchal. Byl omylem identifikován systémem AI.
- V roce 2022 v Kanadě chatbot poskytl nesprávné informace o slevě na letenku, což vedlo k finanční ztrátě a zmeškání důležité schůzky. Zákazník byl informován, že si může zakoupit plnou letenku a poté požádat o slevu, což nebylo pravda. Air Canada se pokusila distancovat od chyby tím, že prohlásila, že chatbot je "odpovědný za své vlastní činy", což jí soud jako omluvu neuznal s tím, že ona je plně odpovědná za data, která mu poskytla a tato letecká společnost byla následně odsouzena k zaplacení odškodnění.
- AI se naučila nenávidět lidi. Chatbot Tay od Microsoftu po 24 hodinách “učení” z interakcí s lidmi prohlásil na Twitteru, že "Hitler měl pravdu, že nenáviděl Židy"? Cílem bylo vytvořit chatbota plného slangu, který by povýšil kvalitu konverzace mezi stroji a lidmi na novou, lidštější úroveň.
- Společnost IBM vynaložila na vývoj systému umělé inteligence na pomoc v boji proti rakovině. Její chatbot Watson doporučil, aby pacientovi s rakovinou se závažným krvácením podávaly léky, které by mohly krvácení zhoršit. Lékařští experti zaznamenali několik případů nebezpečných a chybných návrhů terapie hrozící smrtí pacienta.
- Amazon chtěl zautomatizovat svůj náborový proces, aby urychlil výběr kandidátů na tisíce pracovních míst, které mají. Všechno skončilo katastrofou v oblasti vztahů s veřejností, protože se ukázalo, že systém je sexistický a upřednostňuje bělochy. Tréninková data použitá k vytvoření modelu totiž byla s největší pravděpodobností nevyvážená, což následně vedlo ke zkreslení výběru kandidátů.
- V Číně zavedený systém sociálního kreditu hodnotí chování občanů a na základě jejich "skóre" jim umožňuje nebo znemožňuje přístup k určitým službám, jako je cestování, zaměstnání a vzdělání. Tento systém vyvolává velké obavy z diskriminace a zneužívání moci. Takže velký bratr už existuje.
Co s tím můžeme dělat?
- Zvyšovat povědomí o rizicích AI. Lidé by měli vědět, jak AI funguje a jaká data se k jejímu trénování používají. Měli bychom kriticky vnímat výsledky, které AI generuje, a ptát se na jejich etické a morální důsledky.
- Posilovat regulaci AI. Zákon by měl chránit lidi před diskriminací a nespravedlivým zacházením ze strany AI. Vlády by měly zavést jasná pravidla a standardy pro vývoj a používání AI, která by zohledňovala etické a morální aspekty.
- Podporovat etický vývoj AI. Vývojáři AI by měli dbát na to, aby jejich systémy byly spravedlivé a transparentní. Měli by se aktivně zabývat otázkami předsudků a diskriminace a hledat způsoby, jak je eliminovat z algoritmů.
- Podporovat kritické myšlení a mediální gramotnost. Lidé by se měli naučit kriticky vnímat informace, které se k nim dostávají, ať už z médií, nebo z algoritmů AI. Měli by si být vědomi potenciálních manipulací a předsudků a aktivně je vyhledávat.
Otázky, které bychom si měli začít pokládat k zamyšlení:
- Jaké hodnoty by AI měla reflektovat? Kdo by měl být zodpovědný za to, aby AI byla spravedlivá a transparentní? Jak můžeme zabránit tomu, aby se AI zneužívala k diskriminaci a útlaku?
Chyby AI nejsou jen technickým problémem, ale především problémem politickým. Musíme si uvědomit, že AI není neutrální. Odráží a zesiluje hodnoty a předsudky společnosti, ve které vzniká. Pokud je společnost diskriminační a nerovná, AI tyto vlastnosti jen zopakuje a prohloubí.
Problémy, které AI přináší, nejsou jen technologického rázu, ale právě hluboce hodnotové, a tudíž politické. Řešení nespočívá pouze ve vylepšení technologií, ale v adresování a nápravě systémových nerovností.
Jaká opatření a regulace budou zapotřebí k tomu, aby algoritmy sloužily ke skutečnému veřejnému dobru, zůstává klíčovou otázkou pro budoucnost naší digitalizované společnosti.
Jediný způsob, jak se vyhnout diktatuře AI, je naučit se s ní žít v harmonii. A to znamená, že ji musíme krmit správnými daty a učit ji morálce.
Jinak se nám může stát, že se AI stane nástrojem zla, ne nepodobným Velkému bratrovi z románu G. Orwella. A to by pak byla pořádná „velká chyba“.
Zdroje:
- WikipediE - Totalitarismus
- WikipediE - Velký bratr
- WikipediE - Newspeak
- Přijde „velký bratr“ v roce 2024? Možná tu s námi už nějakou dobu je
- The use of opaque algorithms facilitates abuses within public services
- A level results: Why algorithms aren't making the grade
- Wrongfully Accused by an Algorithm
- Can an algorithm deliver justice?
- Machine Bias - There’s software used across the country to predict future criminals. And it’s biased against blacks.
- Automating Inequality How High-Tech Tools Profile, Police, and Punish the Poor
- How We Analyzed the COMPAS Recidivism Algorithm
- EU AI Act: first regulation on artificial intelligence
- Artificial Intelligence Is Now Used to Predict Crime. But Is It Biased?
- Predictive policing and algorithmic fairness
- Predictive policing algorithms are racist. They need to be dismantled.
- Air Canada ordered to pay customer who was misled by airline’s chatbot
- Top 10 Massive Failures of Artificial Intelligence Till Date
- Five of The Biggest AI Fails
- WikipediA - Social Credit System
- AI technologies — like police facial recognition — discriminate against people of colour
- Reclaime your face
- Unding.de – disputing automated decisions
- On the AI Act’s Passage and Lessons for US Policymakers
- The Human Error Project
- Civil Society’s Struggle Against Algorithmic Injustice in Europe
- These Women Tried to Warn Us About AI