Hlavní obsah
Internet a technologie

Až jednou robot řekne „Je mi to líto“

Foto: Wizard Michal by OpenAI DALL-E

„Pojď se mnou, jestli chceš žít.“ Kdo by si nevzpomněl na ikonickou repliku Kylea Reese i Arnolda Schwarzeneggera z filmů o Terminátorovi. V roce 1984 to byla science fiction. V roce 2025 už ne.

Článek

V roce 2025 se podobná věta neozývá z filmového plátna, ale můžeme si ji představit, že zní z operačních systémů vojenských robotů. Robotů, kteří zabíjejí. Jen bez emocí. Bez kontextu. A, jak se ukazuje, i bez odpovědnosti.

Článek Seznam Zpráv informuje o průlomu: popisují se tu roboti, kteří mají „vlastní morálku“ a dostali povolení zabíjet, tím dostávají volné ruce k vojenské akci. Etická dilemata se najednou rychle z laboratoří přesouvají do výzbroje. Vojenský robot je zbraň. A já si říkám – vždyť přesně o tomhle jsem už psal 8. 12. 2023 v tomto článku.

A dnes chci pokračovat ne v žargonu Pentagonu, ale se závažnou otázkou: 👉 Co se stane, když algoritmus dostane moc nad životem a smrtí?

Simulované svědomí nebo morální matrix?

Mluvíme-li o „umělé morálce“ – jako by stačilo naprogramovat etický kompas do několika řádků kódu. Jenže tento kód pohání smrtící autonomní zbraňový systém. S cílem zabíjet. A mám pocit, že svědomí není výpočetní funkce. Není to if… then… v šabloně hodnot. Jakmile tohle uděláme, zredukujeme morálku na sadu předem očekávaných reakcí. Bez kontextu, bez možnosti cítit vinu, ale hlavně: bez možnosti vnímat druhého jako sebe sama.

Jezuitský kněz, psychoterapeut a spisovatel Anthony de Mello by možná řekl, že robot se může chovat „morálně“, ale jen tak dlouho, dokud to jemu samotnému slouží. Jakmile se vypne podprogram, vypne se i etika. U člověka to – alespoň teoreticky – funguje jinak. Morálka bez možnosti volby není morálkou, je poslušností. A tou se nedá chránit svět. Leda jej přivést k jednomu z již dějinami zaznamenaných -ismů (fašismus, nacismus, komunismus a jiné totalitní diktatury).

Etika algoritmu

Daniel Goleman ve své knize Emoční inteligence upozorňuje na něco velmi znepokojivého, právě pro budoucnost smrti bez soucitu z robotické zbraně. Mluví o tom, že city nejsou v protikladu k inteligenci – právě naopak, tvoří její jádro. Bez empatie totiž není porozumění. A bez porozumění není rozhodnutí. No a bez rozhodnutí není odpovědnost.

Když tedy bojový robot „zváží“, že někdo představuje hrozbu a je třeba ho eliminovat, kdo potom ponese důsledky? Vývojář softwaru svým kódem? Armáda svou silou? Stát svou politikou? Nebo už jsme si snad tak zvykli na všechno možné, že si myslíme, že i odpovědnost se dá outsourcovat? Co teprve odpovědnost za smrt.

Morální outsourcing

Takže se nám tu znovu vynořuje otázka, která není nová, jen je díky rychlému vývoji robotických zbraní naléhavější: Neprogramujeme náhodou AI k tomu, co jsme přestali zvládat sami? Přenecháváme algoritmům právo rozhodovat, protože v sobě ztrácíme schopnost zvažovat následky našich činů.

Nenásilná komunikace mě jako lektora a mentora vedla vždy k tomu, že násilí vzniká, když neumíme vyjádřit své potřeby jinak. Ale robot, který zabije správně, přece nepoužívá násilí, ne? Jen vykonává funkci. Je to přece tak „čisté řešení“, nemyslíte? Ne, já si to nemyslím. Protože čisté řešení v nečistém světě je buď iluze, nebo úplné popření světa.

Ve filmu se Terminátor postupně učil být víc člověkem, než se obětoval za lidstvo. Skuteční bojoví roboti nikdy nepochopí hodnotu oběti. Neprožijí morální dilema, nepocítí tíhu rozhodnutí. Technologický optimismus nás svádí k víře, že třeba i stroj jednou dospěje k lidskosti, ale není to jen další příběh, kterým si usnadňujeme přijetí nové, děsivé reality? Reality, kde smrt přichází na základě výpočtu a ne svědomí?

O čem se má vlastně rozhodovat?

Možná jsme zapomněli, že otázka „zabít nebo nezabít“ není jen vojenský scénář. Týká se toho, jak vedeme naše diskuze. Jak ukončujeme vztahy. Jaké si stavíme hranice, než dojdeme ke konfrontaci. I to se dá dnes svěřit AI, ona nám to vyhodnotí. No, ani ne – ona to nevyhodnotí, udělá jen průměr z mnoha různých odpovědí.

A je potom váš život jedinečný originál, nebo průměr řízený algoritmem? Je vaše ochota diskutovat vedena ochotou být při tom okamžiku komunikace průměrnými? Jsou naše vztahy láskyplné? Plné doteků vedených láskou, nebo strachem? Ale kde potom zůstává lidskost? Ne, ta není v technologii. Není ani v tom, co uděláme. Ale je v tom, že „uneseme“ to, co jsme udělali.

Až jednou robot řekne „Je mi to líto“

Bude to opravdové? Nebo to bude jen výstup přednastavené empatie simulované pro efekt? Až přijde den, kdy stroj projeví „lítost“ nad tím, že někoho zabil, měli bychom se ptát: „Umíme my sami ještě cítit lítost nad tím, co jsme naprogramovali?

Možná totiž nejde o to, jestli roboti zabíjejí. Ale o to, jestli přežije lidskost v nás.

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz