Článek
Dlouho jsme si mysleli, že největší otázkou umělé inteligence bude, jestli nás nahradí v práci. Neptali jsme se nakonec špatně?
Umělá inteligence dnes vstupuje do vojenského prostoru způsobem, který není na první pohled dramatický. Nedávné zprávy o spolupráci technologických firem s armádami připomínají, že mezi etickými prohlášeními a realitou bývá často velká vzdálenost. Umělá inteligence tu nevystupuje jako nová zbraň. Spíše jako systém, který pomáhá analyzovat obrovské množství dat, hledat vzorce, třídit informace a navrhovat priority. Nabídnout vhodné cíle, doporučit zbraňový systém, a nakonec provést konkrétní misi.
Na první pohled jde jen o nástroj. Jenže právě tady se začíná měnit něco podstatného. Největší změna nepřichází ve chvíli, kdy by stroj sám rozhodoval o útoku. Přichází ve chvíli, kdy člověk začne jeho doporučení považovat za přirozenou součást vlastního úsudku. Rozhodnutí zůstává formálně lidské. Ale jeho charakter a podoba začínají být určovány systémem.
A právě tady vzniká zvláštní paradox. Technologie, která má pomáhat lépe analyzovat realitu, může zároveň vytvářet iluzi větší jistoty, než jaká ve skutečnosti existuje. Algoritmus působí objektivně. Je rychlý, systematický, zdánlivě neutrální.
Jenže žádný systém není bez omezení. Je trénovaný na určitých datech, pracuje s určitými předpoklady a vždy obsahuje určitou míru nejistoty. Problematické je, že lidská psychologie má sklon tuhle nejistotu přehlížet. Psychologové tomu říkají automation bias — sklon přikládat doporučením automatizovaného systému větší váhu než vlastnímu úsudku. Jakmile systém něco označí jako pravděpodobné, relevantní nebo prioritní, je pro člověka překvapivě těžké jít proti tomu. Ne proto, že by systém byl neomylný. Ale proto, že jeho rychlost a přesnost vytvářejí dojem autority. Zvláště když rychlost analýzy přesahuje limity lidských schopností.
Tím se nenápadně posouvá i samotná povaha rozhodování. Rozhodnutí, která byla dříve výsledkem dlouhého zvažování, začínají vznikat v prostředí, kde analýza přichází téměř okamžitě. A když se zrychlí analýza, zrychlí se i rozhodnutí.
Otázka ale zní: může svědomí držet krok se stejnou rychlostí jako systém?
V historii byla rozhodnutí o životě a smrti vždy spojena s určitou váhou a břemenem. Nejen právním, ale i osobním. Člověk, který rozhodoval, nesl odpovědnost — a věděl o ní. S příchodem systémů, které doporučují, prioritizují a vyhodnocují, se však do rozhodování vkládá nová vrstva. Rozhodnutí stále činí člověk.
A stále častěji se může objevit věta, která mění psychologii rozhodování:
„AI to doporučila.“
Právě tady vzniká to, čemu někteří odborníci říkají accountability gap — mezera v odpovědnosti.
Systém doporučuje. Člověk potvrzuje. Organizace vykonává. Přiznám se, že mi to něco připomíná.
Ale když se ukáže, že rozhodnutí bylo chybné, není vždy jasné, kdo nese skutečnou odpovědnost. Je to operátor? Tvůrce systému? Instituce, která ho používá? Odpovědnost se jednoduše rozptýlí v celém systému.
Technologie dramaticky zrychluje tempo rozhodování. Analýza, která dříve trvala dny nebo týdny, může být dnes otázkou minut. To má jednu nespornou výhodu: rychlost. Ale zároveň to vytváří nový druh rizika. Pokud více stran používá podobné systémy, mohou rozhodnutí vznikat a reagovat na sebe mnohem rychleji než dříve. Někteří odborníci tomu říkají escalation risk — riziko, že konflikty budou eskalovat rychleji, než je lidé stačí skutečně promyslet.
Tím se dostáváme k možná nejhlubší otázce celé debaty. Jestli člověk zůstane i nadále „v rozhodovací smyčce“. Nebo jinak: jestli v ní zůstane i jeho odpovědnost.
Protože technologie může zrychlit analýzu, výpočet i reakci. Ale odpovědnost za rozhodnutí — zvlášť takové, které může stát lidský život — zatím žádný systém převzít neumí. Je dobře, že to zatím neumí.
A snad by to ani nikdy umět neměl.
