Článek
Umělá inteligence (AI) se učí z obrovského množství dat, která vytváříme my, lidé. Logicky tak přebírá i naše předsudky a stereotypy, a někdy je dokonce ještě víc zesiluje. To, co AI „ví“, totiž vychází z našeho digitálního otisku – z textů, obrázků a rozhodnutí, které jsme jako společnost udělali. Pokud jsou tato data zkreslená, zkreslený bude i výstup AI. Není to nic nového; podobné problémy se objevily už u starších algoritmických systémů.
Konkrétní příklady zkreslení AI v praxi
Pojďme se podívat, jak se zkreslení projevuje v reálném světě:
- Genderové zkreslení: Některé komerční systémy pro rozpoznávání obrázků například označovaly ženy až třikrát častěji štítky zaměřenými na vzhled (např. „krásná“), zatímco u mužů se zaměřovaly na profesi (např. „manažer“). Podobně generátory obrázků často zobrazují muže, když zadáte pojmy jako „vědec“ nebo „IT expert“, zatímco ženy jsou ve vizuálních výstupech mnohem méně časté.
- AI v náboru: Známým příkladem je náborový nástroj od Amazonu, který byl stažen z provozu, protože znevýhodňoval ženské životopisy. Systém byl natrénován na historických datech, v nichž dominovali muži, a snížil tak hodnocení životopisům obsahujícím slova jako „women’s“ (např. „women’s chess club“).
- Rasové zkreslení: Algoritmy pro predikci rizik mohou vykazovat rasové zkreslení. AI generátory obrázků zase mohou zkreslovat zobrazení různých ras. Studie z USC zjistila, že až 38,6 % „zdravých“ prohlášení systémů AI bylo zkreslených, například spojovaly muslimy s terorismem a Mexičany s chudobou.
- Problémy specifické řeči: Platformy pro video rozhovory s AI někdy nedokázaly správně interpretovat mluvené odpovědi kandidátů, kteří měli řečovou vadu, nemluvili plynule (např. kvůli koktavosti) nebo měli jiný, nestandardní dialekt či přízvuk.
Proč na tom záleží?
Zkreslení v AI nejsou jen teoretický problém. Mají reálný a často negativní dopad na naše životy – ovlivňují, kdo dostane práci, jak jsou lidé zobrazováni v médiích, nebo jaké možnosti jim technologie nabízí. Namísto toho, aby pomáhaly odstraňovat nerovnosti, často je ještě posilují. Pokud AI funguje jako „zrcadlo společnosti“, je to bohužel často zrcadlo pokřivené. Proto je klíčové těmto zkreslením rozumět a aktivně s nimi pracovat, a to jak při vývoji AI systémů, tak při jejich praktickém využívání.
Hrozba deepfake videí a zásahy do voleb
Generativní nástroje umělé inteligence umožňují vytvářet vysoce přesvědčivé, ale zcela falešné texty, videa, obrázky a zvuky, které jsou téměř k nerozeznání od skutečného obsahu. To výrazně snižuje bariéru pro ty, kdo chtějí šířit dezinformace ve velkém měřítku, a představuje významnou hrozbu pro integritu voleb a veřejnou důvěru.
Příkladem je lednový incident z roku 2024, kdy voliči v New Hampshire obdrželi telefonní hovory imitující hlas prezidenta Joea Bidena, které je vyzývaly k neúčasti ve volbách. Později se ukázalo, že tyto hovory byly generovány AI. Podobné případy se objevily i během tchajwanských prezidentských voleb, kde byly deepfake videa a manipulované zvukové klipy použity k diskreditaci politiků. Deepfake videa však nejsou hrozbou jen pro volby – britská inženýrská firma například ztratila 25 milionů dolarů kvůli deepfake napodobenině svého finančního ředitele.
Vzestup dezinformací a deepfake videí poháněných AI je hlubokou výzvou pro důvěru veřejnosti a demokratické procesy. Zpráva Světového ekonomického fóra z roku 2024 dokonce označuje dezinformace poháněné AI za největší krátkodobé riziko.
Globální snahy o regulaci AI: Odlišné přístupy
Vlády po celém světě se snaží regulovat umělou inteligenci, ale s různými a často protichůdnými přístupy:
- Spojené státy: Debata se točí kolem toho, zda by regulace měla být federální, nebo by měla být ponechána na jednotlivých státech. Někteří prosazují jednotný, „lehký“ federální rámec, aby podpořili inovace, zatímco kritici argumentují, že Kongres je příliš pomalý a státy by měly mít možnost chránit své občany.
- Evropská unie: EU přijala průkopnický a komplexní Zákon o AI, který klasifikuje rizika (minimální, omezené, vysoké a nepřijatelné). Systémy s „nepřijatelným rizikem“, jako jsou ty pro kognitivně-behaviorální manipulaci nebo sociální bodování, jsou zakázány. Vysoce rizikové systémy musí splňovat přísné požadavky. Generativní modely AI, jako je ChatGPT, nejsou klasifikovány jako vysoce rizikové, ale musí být transparentní ohledně obsahu generovaného AI a dodržovat autorská práva.
- Čína: Čína zvolila strategii regulace po jednotlivých odvětvích a vydává technické normy namísto jednoho komplexního zákona. Klíčové předpisy se týkají algoritmů doporučení a generativních služeb AI.
Další etické a společenské výzvy AI
Kromě zkreslení a dezinformací se AI potýká i s dalšími výzvami:
- Otevřené vs. uzavřené modely AI: Diskutuje se o tom, zda by modely AI měly být volně dostupné (open-source) nebo chráněné (closed-source). Zastánci open-source argumentují transparentností a inovacemi, ale kritici upozorňují na snadnost zneužití, protože uživatelé mohou odstraňovat bezpečnostní funkce a usnadnit tak škodlivé aktivity, jako jsou deepfake videa bez souhlasu.
- Lidská práce a vykořisťování: Vývoj a zlepšování generativní AI silně závisí na lidské práci pro anotaci dat a kontrolu výstupů. Jedná se často o špatně placené, stresující a nejisté pozice, které zahrnují vystavení traumatizujícímu obsahu.
- Autorská práva: Školení modelů AI na obrovském množství autorsky chráněného materiálu vedlo k mnoha soudním sporům proti velkým AI společnostem. Soudy řeší, zda se jedná o „fair use“ nebo přímé porušení autorských práv.
- Dopad na životní prostředí: Spotřeba energie, emise CO2 a spotřeba vody spojené s tréninkem a provozem velkých modelů AI představují významné obavy o udržitelnost. Trénink jednoho středně velkého generativního modelu AI může vyprodukovat až 626 000 tun CO2.
Globální rozdíly v regulaci AI odrážejí základní napětí mezi podporou inovací a zmírňováním hlubokých společenských rizik. Problém „černé skříňky“ (nedostatek transparentnosti v rozhodování AI) navíc zhoršuje problémy s odpovědností, takže je obtížné diagnostikovat chyby nebo přiřadit odpovědnost. Tato složitá krajina ukazuje, že právní rámce se snaží udržet krok s rychlým technologickým pokrokem.