Hlavní obsah
Politika

Trump chce využívat AI k autonomnímu zabíjení a špízlování. Anthropic se chce soudit

Foto: Daniel Torok, Public domain, via Wikimedia Commons

Donald Trump vyhlásil válku tvůrci jedné z nejvyspělejších umělých inteligencí světa. Důvod? Firma odmítla vypnout morální pojistky a dovolit armádě používat AI k autonomnímu zabíjení a masovému sledování občanů.

Článek

Celý konflikt nabral na obrátkách minulý pátek a připomínal spíše vyhlášení válečného stavu než běžné vládní nařízení. Donald Trump, využívající svou oblíbenou platformu Truth Social jako hlavní komunikační kanál, v podstatě jedním příspěvkem odřízl Anthropic od federálních peněz. Jeho příkaz byl nekompromisní: všechny vládní agentury musí s okamžitou platností přestat používat model Claude. Pro firmu, která do té doby úzce spolupracovala s tajnými službami a armádou, to znamenalo bleskový pád z pozice klíčového partnera do role technologického vyvrhele.

Ministr obrany Pete Hegseth šel v rétorice ještě dál a zasadil firmě ránu, která v americkém byznysu nemá obdoby. Nejenže potvrdil Trumpův příkaz, ale oficiálně označil Anthropic za „riziko pro dodavatelský řetězec“. Tento termín není v americké administrativě jen prázdnou frází, je to právní stigma, které se historicky používalo téměř výhradně proti nepřátelským entitám z Číny (jako Huawei) nebo Ruska (jako Kaspersky Lab).

Ústava vs. rozkazy Pentagonu

Zatímco Trump a Hegseth mluví o ohrožení národní bezpečnosti, Anthropic se do této pozice dostal paradoxně proto, že chtěl chránit ústavní práva Američanů. Firma odmítla povolit, aby její algoritmy prováděly masový dohled nad domácnostmi nebo autonomně rozhodovaly o eliminaci cílů. Pro vedení Anthropicu nešlo o levicovou ideologii, jak tvrdí Trump, ale o pragmatickou ochranu demokratických hodnot a snahu zabránit technologii v něčem, na co podle nich zatím není dostatečně spolehlivá.

Prezident Trump však jakoukoli diskusi o etice smetl ze stolu svým typickým, úderným stylem. „Nepotřebujeme je, nechceme je a už s nimi nebudeme spolupracovat!“ hřímal ve svém prohlášení. Tímto krokem dal jasně najevo, že v jeho administrativě nemá soukromý sektor právo diktovat armádě podmínky, a to ani v případě, že jde o otázky života a smrti nebo ochranu soukromí.

Dvě „červené linie“, přes které nejede vlak

První a nejzásadnější „červenou linií“ je absolutní zákaz plně autonomního zabíjení. Dario Amodei, šéf Anthropicu, v tom má jasno: umělá inteligence nesmí mít právo stisknout spoušť bez přímého potvrzení člověkem. Argumentace firmy přitom není jen filozofická, ale krutě pragmatická. Současné modely AI totiž trpí takzvanými „halucinacemi“ – stavy, kdy si systém s naprostým sebevědomím vymýšlí fakta nebo chybně vyhodnocuje realitu.

V bojových podmínkách by taková chyba mohla mít katastrofální následky. Algoritmus by mohl zaměnit civilní vozidlo za nepřátelský transport nebo v horším případě zahájit palbu do vlastních řad. Amodei varuje, že u AI zbraní se rozpadá „hierarchie zodpovědnosti“. Zatímco u vojáků z masa a kostí vždy existuje konkrétní velitel, který za rozkaz ručí, u hejna deseti milionů autonomních dronů řízených jedním algoritmem se vina v případě tragédie stává nedohledatelnou.

Druhá linie se týká domácího masového sledování. Anthropic odmítá, aby byl model Claude zneužit k analýze obrovských balíků dat o amerických občanech. Jde o citlivé informace, které stát nakupuje od soukromých zprostředkovatelů – od historie polohy GPS přes politickou příslušnost až po nákupní zvyklosti. Umělá inteligence dokáže tato roztříštěná data spojit do neuvěřitelně přesných profilů jednotlivců, což je pro FBI nebo imigrační úřady lákavý nástroj.

Podle Amodeie je toto zneužití vládní moci přímým útokem na základy demokracie, i kdyby bylo technicky vzato legální. Tvrdí, že zákony v tomto směru zaostávají za technickou realitou a Anthropic se rozhodl suplovat roli chybějící regulace. Pro firmu je to otázka principu: nechtějí být těmi, kdo vládě dodají „digitální rentgen“, který uvidí do soukromí každého občana bez soudního příkazu.

Vzpoura jako nejvyšší forma vlastenectví

Výrokem, že „nesouhlas s vládou je tou nejameričtější věcí na světě“, se přímo odvolal na první dodatek Ústavy USA. Pro Anthropic není tento spor o peníze, ale o to, zda má soukromá firma právo říct „ne“ rozkazům, které považuje za nebezpečné pro společnost.

Tento postoj vyvolal vlnu solidarity v celém technologickém sektoru. Inženýři z konkurenčních firem jako Google či OpenAI začali podepisovat dopisy na podporu Amodeie, protože pochopili, že se zde hraje o precedens. Pokud stát zlomí Anthropic, žádná jiná firma už nebude mít odvahu nastavit své AI etické hranice. Anthropic se proto nyní připravuje na soudní bitvu, která pravděpodobně definuje vztah mezi technologickými giganty a vládní mocí pro celé 21. století.

Rozkaz z Truth Social vs. skandální realita v Íránu

Zatímco Donald Trump na své síti Truth Social psal plamenné příspěvky o tom, že „levičácký“ Anthropic musí z vlády okamžitě zmizet, v operačních střediscích Pentagonu a Izraelských obranných sil (IDF) běžely procesory na plné obrátky. Podle zjištění prestižních deníků Wall Street JournalAxios totiž právě v tu chvíli systém Claude, mozek „zakázané“ firmy, řídil simulace a analýzy cílů pro masivní nálety na Írán.

Ukázalo se, že Claude není jen nějaký „chatovací robot pro úředníky“, ale hluboce integrovaný nástroj, který armáda využila už při lednové operaci ve Venezuele. Generálové se ocitli v pasti: na jedné straně mají přímý rozkaz od vrchního velitele technologii okamžitě vypnout, na druhé straně by takový krok uprostřed ostrého konfliktu v Íránu znamenal oslepnutí jejich nejpokročilejších plánovacích systémů.

Důvod, proč armáda nemůže jednoduše „přepnout na ChatGPT“, je v přísné byrokracii národní bezpečnosti. Claude od Anthropicu byl totiž historicky jediným špičkovým AI modelem, který získal certifikaci pro provoz v režimu „Přísně tajné“ v rámci speciálního vládního cloudu od Amazonu. Žádná jiná AI v tu chvíli nesplňovala tak drsné bezpečnostní prověrky, aby jí stát mohl svěřit data o pohybu vlastních jednotek nebo souřadnice íránských raketových sil.

Odstranit tuto technologii ze systémů, které navigují drony a vybírají cíle pro letecké údery, je technicky srovnatelné s pokusem vyměnit motor v letadle uprostřed letu. Claude je „vypálen“ do stovek navazujících procesů, od analýzy satelitních snímků až po logistiku paliva. To vysvětluje, proč musel Pentagon – navzdory prezidentovu hněvu – vyjednat kritické šestiměsíční „přechodné období“. Bez něj by se americká vojenská mašinerie mohla v klíčový moment digitálně zhroutit.

Kdo nahradí „mozek“ armády?

Tato šestiměsíční lhůta je nyní vnímána jako závod s časem. Pentagon se zoufale snaží najít náhradu, která by byla stejně inteligentní, ale „vlastenecky poslušnější“. Spekuluje se o narychlo schválených verzích OpenAI nebo Muskově Groku, ale experti varují: Claude byl trénován na bezpečnost a stabilitu, což jsou vlastnosti, které v boji rozhodují o úspěchu operace. Pokud armáda pod politickým tlakem přejde na méně prověřený systém, riskuje, že její příští simulace skončí fatálním selháním. Trumpova administrativa tak svou snahou o potrestání „neposlušné“ firmy nechtěně odhalila, jak moc jsou Spojené státy zranitelné.

Zatímco se Anthropic stal symbolem odporu, jeho největší rival, společnost OpenAI, neztrácel čas. Šéf firmy Sam Altman se zachoval jako pragmatický byznysmen – jen několik hodin poté, co jednání mezi Pentagonem a Anthropicem zkrachovala, oznámil uzavření nové, přísně tajné smlouvy s americkou armádou. Altman se sice snažil situaci uklidnit prohlášením, že ChatGPT také nebude sloužit k „autonomnímu zabíjení“, ale jeho ochota přistoupit na vládní podmínky bez technických pojistek, které vyžadoval Anthropic, vyvolala bouři.

Na sociálních sítích se pod hashtagem #CancelChatGPT strhla lavina. Tisíce uživatelů začaly zveřejňovat snímky obrazovek se zrušeným předplatným. Olej do ohně přilily i celebrity – například popová hvězda Katy Perry veřejně oznámila, že přechází ke „vzpurnému“ Claude, a vyzvala své miliony sledujících, aby udělali totéž. Pro mnohé se OpenAI stalo symbolem korporátní kolaborace, zatímco Anthropic získal status ochránce lidských práv. Sam Altman později v interním memorandu přiznal, že oznámení bylo „uspěchané a působilo oportunisticky“.

Elon Musk a Grok: „Vlastenecká“ AI s otazníkem

Do uvolněného prostoru se dravě tlačí také Elon Musk se svou umělou inteligencí Grok. Trumpova administrativa vidí v Muskovi ideálního spojence – je to miliardář, který sdílí Trumpův odpor k „woke“ kultuře a etickým omezením, která podle nich brzdí americký pokrok. Grok je vnímán jako „vlastenecká“ alternativa, která nebude armádě klást nepříjemné otázky o morálce nebo soukromí občanů.

Má to však jeden zásadní háček, na který upozorňují experti z CIA. Podle uniklých informací jsou analytici tajných služeb zděšeni představou, že by Grok měl nahradit Claude v kritických operacích. Technologicky je totiž Muskovo řešení považováno za „podstatně slabší“. Grok sice vyniká v humoru a neformální mluvě, ale v přesnosti, logice a analýze komplexních bojových situací zatím zaostává. Pokud by armáda skutečně svěřila plánování náletů Grokovi, riskovala by podle odborníků tragické omyly způsobené nižší inteligencí modelu.

Spor o to, kdo nahradí Anthropic, ukazuje na hlubší problém celého odvětví. Na jedné straně stojí model „zodpovědné AI“ (Anthropic), který je ochoten obětovat miliardové zakázky pro své principy. Na druhé straně vidíme dravou snahu o dominanci (OpenAI a Musk), kde se etické otázky řeší až za pochodu.

Trumpův tlak na odstranění pojistek vytvořil nebezpečný precedens: vzkazuje firmám, že pokud chtějí státní peníze, musí se vzdát kontroly nad tím, jak bude jejich vynález použit. To znamená jediné – končí éra „neutrální“ umělé inteligence. Napříště si budeme vybírat chatbota nejen podle toho, jak je chytrý, ale ke komu je loajální.

Paradox za jeden dolar

Finanční pozadí celého sporu odhaluje naprostý paradox „vlastenectví“ v podání Bílého domu. Společnost Anthropic sice loni uzavřela s Pentagonem rámcový kontrakt v hodnotě 200 milionů dolarů, ale to byla jen špička ledovce. Pro ty nejkritičtější úřady, jako jsou tajné služby či kybernetická obrana, poskytovala firma své nejpokročilejší modely za symbolický jeden dolar. Nešlo o charitu, ale o strategické partnerství. Anthropic chtěl zajistit, aby americký stát disponoval nejbezpečnější technologií na světě, i kdyby na tom firma měla tratit.

Donald Trump však tuto „službu vlasti“ prakticky zlikvidoval. Tím, že firmu odstřihl a označil za riziko, donutil státní úřady hledat náhradu u konkurence, která si za podobné služby účtuje tržní ceny v řádech miliard. Daňoví poplatníci tak v přímém přenosu sledují, jak se kvůli politickému egu vyhazuje z okna unikátní dohoda, která dávala USA obrovský technologický náskok téměř zadarmo.

„Zákaz“ jako nejlepší reklama světa

Pokud měl Trumpův útok firmu Anthropic poškodit, stal se přesný opak. V pondělí ráno, jen několik desítek hodin po prezidentském výnosu, se servery systému Claude pod náporem nových uživatelů zhroutily. Společnost oznámila „bezprecedentní poptávku“, která překonala veškeré historické rekordy. Lidé totiž v Claude nevidí jen software, ale symbol digitálního odporu. Každý nový registrovaný uživatel je v podstatě protestním hlasem proti vizi světa, kde o životě a smrti rozhodují nekontrolované algoritmy.

Firma Anthropic, která má tržní hodnotu odhadovanou na 380 miliard dolarů, tak díky Trumpovi získala globální pozornost, jakou by si nekoupila ani tou nejdražší kampaní. Pro běžné uživatele se stala „tou hodnou AI“, která se nenechala zlomit ani nejmocnějším mužem planety.

Bitva se nyní přesouvá ze sociálních sítí do strohých soudních síní. Anthropic podává žalobu, která bude mít pro budoucnost demokracie zásadní význam. Soudci budou muset rozhodnout: Má prezident Spojených států právo zlikvidovat legálně fungující domácí firmu a označit ji za „nepřítele státu“ jen proto, že odmítla odstranit etické pojistky ze svého produktu?

Pokud Anthropic vyhraje, potvrdí se, že ani Pentagon nemůže nutit vědce k vývoji technologií pro masové sledování nebo autonomní zabíjení. Pokud vyhraje Trump, padne poslední bariéra a umělá inteligence se stane bezvýhradným nástrojem státní moci – bez ohledu na to, jaké nebezpečí to pro svobodu jednotlivce představuje.

Výsledek tohoto soudu určí, jestli budeme v budoucnu AI ovládat my, nebo jestli bude AI (v rukou politiků) ovládat nás.

Zdroje:

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít publikovat svůj obsah. To nejlepší se může zobrazit i na hlavní stránce Seznam.cz