Hlavní obsah

„Děkuji za zpětnou vazbu.“ Jak velký problém je servilní, „ženská“ AI?

Foto: Photo by Matheus Bertelli/ Pexels

V lednu 2022, rok před první verzí ChatGPT, vydal server Futurism článek o mužích, kteří verbálně napadají své AI přítelkyně. Jsou AI chatboti prostředím, kde si muži trénují agresi, kterou pak přenášejí na ženy?

Článek

Mnozí, kdo se na tento článek odvolávali, tvrdili, že AI chatboti jsou prostředím, kde si (převážně mladí) muži trénují svoje sociální dovednosti a agresi pak přenášejí na své ženské protějšky. Ale je tomu opravdu tak? Měli bychom učit umělou inteligenci se takovému chování bránit nebo kontrolovat interakce mužů v našich životech s AI, abychom se ujistily, že nacvičené chování nepřenášejí do reálného světa?

Technologie v nás vyvolává zuřivost

Na tyto otázky se nedá odpovědět jednoznačně. AI je na světě pouze necelé tři roky a ačkoli už značně pokročila ve svých schopnostech a způsobech, jak zhoršit problémy, které lidstvo již trápí (viz ekologická stopa každé AI interakce), data za vývojem pokulhávají. Ačkoli se výzkumu interakcí s umělou inteligencí věnuje stále více pozornosti, zatím nemáme jasné důkazy o tom, zda agresivní chování vůči AI chatbotům je jen ventilování frustrace, snaha chatboty otestovat a naučit je „správné“ reakce, nebo se jedná o nacvičování vzorců chování, které se pak přenášejí do reálného života.

Jeden z takových výzkumů provedený Canteburskou univerzitou na Novém Zélandu v roce 2021 ukazuje, že až 80 % interakcí člověka s chatbotem obsahuje nějakou formu sprostých slov a agrese.

Ačkoli to samo o sobě může šokovat, je nutné si uvědomit, že ne všechna komunikace je mířená přímo proti chatbotovi. Lidé prostě mluví sprostě. Stačí se zamyslet nad tím, kolikrát v běžném hovoru sami používáme vsuvková sprostá slova. Je navíc dokázáno, že používání sprostých slov člověku pomáhá ulevit, aniž by musel sáhnout po fyzické agresi. (V tomto ohledu doporučuju zhlédnout dokumentární sérii z produkce Netflixu nazvanou History of Curse Words z roku 2021, která se v jednom díle anekdoticky snaží dokázat, že pokud nadáváme u nepříjemné aktivity, jsme schopni ji dělat déle.) Sprostá slova jsou s námi už odnepaměti a nemůžeme proto očekávat, že naše nastavení změníme během komunikace s umělou inteligencí.

Nicméně ten samý výzkum ukazuje, že až 65 % těchto interakcí vykazovalo známky toho, co bychom v případě mezilidské komunikace považovali za verbální násilí, nebo dokonce sexuální obtěžování. Novější výzkumy z let 2024 a 2025 tento trend potvrzují a přidávají k němu dovětky v podobě silných emočních vazeb mezi chatbotem a uživatelem.

Nechoď na mě s lidskostí

Pokud jde o verbální násilí a agresi, ukazuje se, že čím lidštěji chatbot komunikuje, čím více se snaží chovat, komunikovat, vydávat se za člověka, tím větší frustrace vzniká na straně uživatele, a tím agresivnější a sprostší se interakce stává. V této debatě se mnoho odborníků domnívá, že lidé se nechovají k chatbotů agresivně a sprostě, protože jde o chatboty. Je to právě naopak – uživatele frustruje snaha AI chovat se lidsky, vydávat se za člověka, zatímco dělají v zásadě lidské chyby, kterým by se tato „vyšší“, umělá forma inteligence měla umět vyhnout.

Za tři roky existence umělé inteligence a chatbotů jí poháněných vzniklo již nespočet videí a postů na sociálních sítích, které si dělají srandu z neschopnosti AI následovat vcelku jednoduchý prompt, případně opravit chyby, které vznikly na základě příkazu předchozího. Každý, kdo užívá AI ke své práci, se za poslední roky dostal do bodu frustrace, do které by ho běžná lidská interakce nedostala. Ostatně to není jen problém umělé inteligence.

Čím chytřejší se technologie kolem nás stává, tím větší frustraci pro uživatele představuje zejména v momentech, kdy nefunguje, jak má nebo jak uživatel předpokládá. Podle některých psychologických pozorování za posledních 30 let zažilo počítačovou zuřivost (neboli „computer rage“) až 40 % uživatelů. A tato zuřivost se neprojevuje jen boucháním do stolu nebo vztekem. Jeden z článků popisuje bizarní manifestace této zuřivosti a frustrace, které reportovali sami uživatelé „od zapalování jejich příslušenství, přes přejíždění počítačů auty až po střílení do vadných počítačů. Jeden člověk dokonce uvedl, že mrtvé počítačové součástky připevnil na zeď svého starého pokoje na koleji jako nějaké varování před budoucími počítači jako z Hry o trůny.“

Pokud jsou uživatelé ochotní „ublížit“ počítačům takto důmyslně, může nás překvapovat, že v interakci s něčím, co napodobuje člověka, ale není člověkem, se jejich frustrace projeví verbální agresí?

Umělá inteligence se prezentuje žensky a servilně

To ovšem není to jediné, s čím se AI chatbot musí „poprat“. Stále více se ukazuje, že chatboti čelí verbálním sexuálním útokům v alarmující míře. Na jednu stranu se můžeme ptát, proč by nás měly verbální nebo sexuální útoky vůči nedokonalé technologii, která jen velmi dobře předvídá další slovo, které se objeví v textu nebo mluvené řeči, zajímat. Vždyť neživému, nemyslícímu chatbotovi přece nemohou ublížit ani na těle, ani na duši.

Opravdový problém ovšem nastává ve chvíli, kdy se podíváme na to, jak jsou tito asistenti a pomocníci vyvíjeni a prezentováni světu.

Ačkoli při interakci s ChatGPT a dalšími chatboty můžete nastavit, jak chcete, aby s vámi chatbot komunikoval – jestli se má prezentovat jako žena nebo muž –, u chytrých asistentek typu Siri nebo Alexa je problém mnohem hlubší. Ano, jejich hlasy si můžete změnit, ale problém začíná už v samotném jméně. Oboje Alexa i Siri jsou ženská jména a obě tyto technologie mají v základním nastavení ženské hlasy.

Představa žen jako služebných, servilních, nápomocných je ve společnosti stále hluboce zakořeněná. Ženy jsou stále vnímány více jako asistentky a sekretářky než vedoucí a šéfky. Nazírání na ženy jako na zdvořilé, poddajné a pečující je tak hluboko zažité v naší kultuře, že pokud technologická firma vyvine chatbota, který vám má usnadnit život, dá mu v základním nastavení ženskou identitu. Těžko se dá říct, jestli je to výsledek vědomého rozhodnutí, nebo jen hluboce zakořeněného sexismu. Z jedné studie vychází, že čtyři z deseti Britů přiznali, že jsou k AI chatbotům hrubší než k lidem – právě proto, že je vnímají jako nekompetentní. A pokud je většina těchto chatbotů žensky kódovaných, agresivní chování má jasný genderový podtext.

Nicméně ženskou žitou zkušenost na tomto světě nelze popsat bez verbálního, fyzického a sexuálního násilí. A oběťmi sexuálních útoků a násilí jsou celosvětově převážně ženy. Víme, že sexuální násilí nemá mnoho společného s aktem samotným, ale jde spíše o snahu získat nad obětí kontrolu a nadvládu. Pokud tedy máme primárně ženské AI asistenty, které ještě k tomu nerozpoznají nevhodné chování a odpovídají poníženě, servilně, nebo dokonce koketně, může problém přetéct i do reálného světa.

Pokud lidé pozorují agresivní chování vůči žensky se prezentující umělé inteligenci, které nevyvolá následky, pak je snadné si vytvořit myšlenkový rámec, v němž je v pořádku se podobně chovat i k „žensky se prezentujícím lidským osobám“. V době, kdy technologie často supluje mezilidský kontakt, pak může mít toto naučené chování dalekosáhlé následky pro ženy žijící v reálném světě. Zvláště pokud z několika různých studií vychází, že u uživatelů-mužů je až o 30 % větší pravděpodobnost, že budou vůči chatbotovi agresivní a budou používat sexuálně explicitní jazyk.

Agresivní chování a nadávky nejsou „zpětná vazba“

Ačkoli stále má mnoho uživatelů pocit, že v online světě jsou anonymní a za své chování neponesou následky, i díky umělé inteligenci se tato hranice dále smazává. Online disinhibice, která nám umožňuje chovat se na internetu úplně jinak než v reálném světě, se najednou přelévá do interakce s něčím, co se tváří jako člověk a odpovídá. Zatímco v komentářích na sociálních sítích se napadeného někdo může zastat, komentáře se dají smazat, omezit, případně ignorovat, umělá inteligence nabídne reakci v mnoha ohledech problematickou a nedostatečnou, až pasivní, což může vyvolat dojem, že jde o běžnou reakci na podobné chování.

V minulosti se objevilo mnoho videí a záznamů o tom, že virtuální asistentky jako Siri od Applu nebo Alexa od Amazonu při nadávkách a urážkách odpovídaly pasivně větou „Děkuji za zpětnou vazbu“. V případech, kdy šlo o obsah, který naznačoval sexuální obtěžování, Siri často odpovídala až koketně („Kdybych mohla, červenala bych se“), případně pasivně-agresivně až sarkasticky („No, to jsem ještě neslyšela“), což bylo zejména uživatelkami vnímáno problematicky. Ženy jsou odmalička učeny, že v podobných situacích je nejlépe se vyhnout eskalaci a co nejrychleji se dostat pryč. Popkultura nám možná předkládá statečné hrdinky, které odpálkují muže, kteří na ně na ulici pokřikují, ale v reálném světě v tu chvíli hrozí eskalace, která může ženu vážně ohrozit na zdraví i životě.

Po vlně kritiky se odpovědi virtuálních asistentů změnily, a pokud se pokusíte dnes Siri nadávat, případně ji zatáhnout do podobné situace, nejpravděpodobněji vám odpoví, že „na to nebude odpovídat“ a vypne se. Nicméně někteří odborníci se domnívají, že by chatboty měly být naprogramovány tak, aby urážlivé chování rozpoznaly a reagovaly tvrději, případně dokonce uživatele upozornily na problematiku takového chování a doporučily zdroje, které mu mohou pomoci se těchto vzorců chování zbavit. Stejní odborníci také varují, že nevhodné chování k chatbotům se může snadno přenést do reálného života, zvláště pokud uživatel není na svoje chování upozorněn a nenese za něj následky.

Navíc nedávný článek v New York Magazine ukazuje data ohledně témat, pro která lidé nejčastěji využívají ChatGPT. Nejde sice o data přímo od OpenAI, jelikož tato společnost je nezveřejňuje, ale jde o analýzu konverzací uživatelů, kteří se dobrovolně zapojili do projektu WildChat. Ukázalo se, že zatímco nejčastěji používali ChatGPT na kreativní kompozici zpráv, e-mailů, informací do profilů sociálních sítí a další textové kompoziční úkony, hned druhá kategorie je (ne)překvapivě sexuální a explicitní obsah. Nemusí jít nutně o sexualizované verbální násilí, ale ukazuje to společenské a uživatelské naladění, stejně jako budoucnost toho, k čemu budou tyto technologie nejčastěji užívány. Paradoxní je to hlavně v tom, že lingvistické modely jsou učené na všeobecně dostupných textech, což jsou převážně zpravodajská média, která mají sexualizované a sexuální násilí tendenci bagatelizovat.

Pokud opravdu chceme, aby asistentky jako Siri nebo Alexa a ostatní chatbotové technologie, které se každý den rojí, nám opravdu pomáhaly v našem životě a usnadnily ho (nakonec takový je obecný narativ), dávalo by smysl učit uživatele při interakcích s nimi, že určité chování je nevhodné. Zvláště, když jde o neživé entity a tudíž jim nehrozí žádné fyzické nebezpečí. Bude to určitě lepší a efektivnější, než když se ti samí jedinci budou o následcích svých činů a svého chování učit až na cestě do nápravného zařízení, zatímco jejich oběti budou zpracovávat zažité trauma. V tom lepším případě.

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz