Hlavní obsah
Internet, technologie a elektronika

Nové národní obrození: Česko nemá vlastní AI a jeho armáda na tom tratí

Foto: Claude Opus

Štít s obvodovými vzory v neuronové síti — česká AI suverenita

Francie a Německo nasazují AI v obraně, Island naučil GPT-4 islandštinu za 14 milionů eur. České bezpečnostní složky nemají jazykový model, kterému by mohly důvěřovat.

Článek

Čtyřicet dobrovolníků na ostrově s 370 000 obyvateli vzalo věc do vlastních rukou. Na Islandu se v roce 2023 sešla skupina lingvistů, programátorů a nadšenců, kteří začali ručně trénovat GPT-4 na islandštinu metodou zpětnovazebního učení od lidí. Poskytli společnosti OpenAI přes 4 miliardy slov kvalitních islandských textů. Výsledek: přesnost skloňování v GPT-4 Turbo vzrostla z 25 % na 66 %. Celková vládní investice za pět let činila přibližně 14 milionů eur.

Ve stejné době Česká republika — s desetimilionovou populací, jednou z nejsilnějších tradic výpočetní lingvistiky v Evropě a firmou Seznam.cz, která provozuje vlastní vyhledávač — neměla a dosud nemá žádný jazykový model využitelný pro účely národní bezpečnosti. Armáda, zpravodajské služby ani policie veřejně neformulují záměr takový model vybudovat nebo nasadit.

Tento článek není o technických měřítkách výkonu. Je o strategické mezeře, která se týká bezpečnosti státu, kulturní identity a technologické suverenity. Měřítka přitom existují a říkají jasnou věc: výkon jazykových modelů v češtině je o 10–30 % horší než v angličtině. Žádný ze samostatných modelů nesložil české advokátní zkoušky. Modely zaměňují sametovou revoluci za rozpad Rakouska-Uherska a vymýšlejí neexistující česká slova. A zatímco Francie v lednu 2026 uzavřela rámcovou smlouvu s firmou Mistral AI pro celé ozbrojené síly a Německo investuje miliardy eur do obranné firmy Helsing, české bezpečnostní složky toto téma veřejně neřeší.

Situace připomíná jazykovou závislost z doby před národním obrozením. Tentokrát však nejde jen o kulturu — jde o to, kdo kontroluje informační infrastrukturu, na níž stát závisí.

Kdo kontroluje českou umělou inteligenci

Závislost České republiky na zahraničních technologiích umělé inteligence je vícevrstevná. Všechny specializované čipy (NVIDIA, AMD) pocházejí z USA. Převládající jazykové modely — GPT-4o, Claude, Gemini, Llama, DeepSeek — jsou vyvíjeny mimo Evropu. Většina výpočetního zpracování probíhá na amerických cloudových platformách. A v trénovacích datech, z nichž se modely učí, tvoří méně zastoupená polovina všech úředních jazyků EU dohromady pouhá 2,4 % dat.

Nejpokročilejší českou komerční iniciativou je SeLLMa od Seznam.cz — model se 70 miliardami parametrů postavený metodou průběžného dotrénování na modelu Llama 3.1 s otevřeným kódem. Vývoj zahájil tým přibližně padesáti lidí v druhé polovině roku 2023 s investicí přes 100 milionů korun, včetně nákupu stovek čipů NVIDIA H100. SeLLMa pohání chatbota Seznam Asistent, spuštěného 25. listopadu 2025, a další produkty — souhrny výsledků vyhledávání, tvorbu inzerátů, moderování diskuzí. Klíčový je strategický záměr: podle Diany Hlaváčové, produktové manažerky velkých jazykových modelů, nechce Seznam záviset na technologiích třetích stran a chce mít plnou kontrolu nad modelem běžícím na vlastních serverech.

Jenže SeLLMa není model vybudovaný od nuly. Je to dotrénovaná verze americké Llamy. Seznam dočasně využívá i modely OpenAI přes platformu Azure. A jakékoli průběžné dotrénování dědí omezení základního modelu — jeho architekturu, způsob dělení textu na jednotky i implicitní kulturní rámec.

Na evropské úrovni existuje průlomový projekt OpenEuroLLM, koordinovaný profesorem Janem Hajičem z Ústavu formální a aplikované lingvistiky Matematicko-fyzikální fakulty Univerzity Karlovy. Projekt s rozpočtem 37,4 milionu eur (z toho 20,6 mil. z programu Digital Europe) sdružuje přes 20 partnerů z celé Evropy. Cílem je vyvinout rodinu plně otevřených vícejazyčných modelů pokrývajících všechny úřední jazyky EU i další strategicky důležité jazyky. První verze modelů je očekávána do poloviny roku 2026, finální verze do začátku roku 2028.

Česko je jako země koordinátora v privilegované pozici. Ústav formální a aplikované lingvistiky přináší desetiletí zkušeností s českými jazykovými zdroji — Pražský závislostní korpus, infrastrukturu LINDAT/CLARIAH-CZ, model RobeCzech. VUT v Brně vytvořilo BenCzechMark, první komplexní českou sadu srovnávacích testů pro jazykové modely. Akademický ekosystém je silný.

Co chybí, je propojení s bezpečnostním sektorem. OpenEuroLLM je výzkumně-komerční projekt, nikoli bezpečnostní. Národní strategie umělé inteligence ČR 2030, schválená vládou 24. července 2024 s plánovanými investicemi 19 miliard korun, neobsahuje samostatnou kapitolu o jazykové suverenitě. Připravovaný superpočítač KarolAIna (850 petaflopů, zprovoznění koncem roku 2026) by teoreticky mohl sloužit i pro trénování bezpečnostního modelu — ale takový záměr nebyl vysloven.

Co to znamená v praxi: pět lidí, kteří nemají nástroj

Státní bezpečnostní analytik — ať už kriminalista, příslušník zpravodajské služby, kybernetický specialista, vojenský důstojník nebo úředník finanční správy — dnes stojí před stejným dilematem. Potřebuje zpracovat velké objemy textu v češtině, ale nemá k dispozici jazykový model, kterému by mohl důvěřovat.

Představte si kriminalistu Národní centrály proti organizovanému zločinu, který vyšetřuje rozsáhlou ekonomickou trestnou činnost. Na stole má tisíce stran — účetní doklady, smlouvy, e-mailovou korespondenci, výpisy z rejstříků, znalecké posudky. Jazykový model by dokázal identifikovat vzorce, propojit subjekty napříč dokumenty, shrnout klíčové pasáže. Americký model to umí — ale v angličtině. V češtině rozumí kontextu hůře: nerozliší „jednatele“ od „jednatele v likvidaci“, nerozumí specifické terminologii českého insolvenčního práva, neví, co je „věřitelský výbor“ v kontextu zákona č. 182/2006 Sb. A hlavně: kriminalista nesmí nahrát obsah trestního spisu na servery americké korporace.

Představte si analytika Bezpečnostní informační služby, který sleduje dezinformační operace cílené na českou veřejnost. Potřebuje denně zpracovat stovky příspěvků na sociálních sítích, článků z alternativních médií, kanálů na platformě Telegram. Model by dokázal třídit narativy, rozpoznávat koordinované chování, mapovat šíření. Jenže model trénovaný na anglických datech nechápe, proč je fráze „vlastenecká opozice“ v českém kontextu roku 2026 jiný signál než v americkém kontextu. Nerozumí, že „alternativní média“ v Česku zahrnují spektrum od legitimní kritiky po koordinovanou kremelskou propagandu. Neví, kdo je kdo v české dezinformační scéně — a srovnávací testy ukazují, že ve faktických znalostech o českých reáliích selhává.

Představte si specialistu Národního úřadu pro kybernetickou a informační bezpečnost, který analyzuje kybernetický útok na českou kritickou infrastrukturu. Záznamy jsou částečně v češtině, interní komunikace napadené organizace je česky, hlášení o incidentu musí splňovat požadavky českého zákona o kybernetické bezpečnosti. Model by pomohl s tříděním incidentu, tvorbou hlášení, rozborem vzorců v záznamech. Ale každý dotaz odeslaný přes komerční rozhraní putuje na servery americké společnosti podléhající zákonu CLOUD Act, který umožňuje americkým úřadům přístup k datům bez ohledu na to, kde se fyzicky nacházejí. Pro zpracování informací o útoku na českou kritickou infrastrukturu je to nepřijatelné riziko.

Představte si důstojníka Vojenského zpravodajství, který připravuje situační analýzu. Potřebuje zpracovat otevřené zdroje — české, slovenské, polské, německé, ruské. Model by dokázal shrnout, překládat, identifikovat klíčové informace. Ale ani jeden z dostupných modelů nebyl prověřen českými bezpečnostními složkami. Žádný nebyl dotrénován na české vojenské doktríny, operační postupy nebo zpravodajskou terminologii. A důstojník nemá jistotu, že model — ať už americký, nebo čínský — v sobě nenese skrytá zkreslení, která by ovlivnila analytický výstup.

A představte si úředníka Finančního analytického úřadu, který sleduje podezřelé transakce napojené na sankcionované subjekty. Denně zpracovává hlášení bank, směnáren, kryptoburz — v češtině, s českou právní terminologií, s vazbami na specificky české firemní struktury. Model by dokázal propojit subjekty, identifikovat vzorce, označovat anomálie. Bez kvalitního českého modelu to dělá ručně.

Společný jmenovatel všech pěti scénářů: existuje alternativa s otevřeným kódem — provozovat Llamu, Mistral nebo jiný otevřený model na české infrastruktuře. Ale žádný z těchto modelů nebyl pro české bezpečnostní účely prověřen, dotrénován na české oborové dokumenty ani certifikován. Llama je americká, Mistral francouzský, Qwen čínský, DeepSeek čínský. Průběžné dotrénování od Seznamu (SeLLMa) zlepšuje kvalitu češtiny, ale je navrženo pro komerční účely — ne pro zpracování utajovaných dokumentů.

Výroční zpráva BIS za rok 2023 označuje umělou inteligenci za „obrovskou výzvu“ pro bezpečnostní složky — ale s důrazem na rizika falešných videí a obrázků, nikoli na absenci vlastních nástrojů. NÚKIB v Národní strategii kybernetické bezpečnosti 2026–2030 identifikuje umělou inteligenci jako příležitost i hrozbu, aniž by formuloval konkrétní záměr vybudovat nebo nasadit nezávislý jazykový model. O Vojenském zpravodajství, Úřadu pro zahraniční styky a informace, Finančním analytickém úřadu a Policii ČR v kontextu vlastních jazykových modelů nejsou veřejně dostupné žádné informace.

Jak to dělají jinde

Kontrast se spojenci je výrazný.

Francie stanovila v Evropě měřítko. V lednu 2026 uzavřelo ministerstvo ozbrojených sil rámcovou smlouvu s firmou Mistral AI pokrývající všechny složky armády. Modely budou nasazeny výhradně na francouzské infrastruktuře, citlivá data neopustí jurisdikci. Ministerská agentura AMIAD dohlíží na zavádění, Mistral bude modely dolaďovat na obranně specifická data pro logistiku, zpravodajskou analýzu a simulace. Francie přitom disponuje vlastní firmou světové úrovně — Mistral má hodnotu kolem 14 miliard dolarů.

Německo investuje přes firmu Helsing do autonomních bojových systémů. Helsing s hodnotou přibližně 5,4 miliardy eur a více než 500 zaměstnanci vyvíjí bezpilotní letouny, systémy leteckého boje i podmořské sledovací systémy. Projekt CA-1 Europa s firmou HENSOLDT cílí na autonomní bojový letoun s čistě evropskou technologií.

Velká Británie ve Strategickém obranném přezkumu 2025 označila umělou inteligenci za ústřední prvek přeměny ozbrojených sil s investicí jedné miliardy liber do digitální bojové infrastruktury. USA v prosinci 2025 spustily platformu GenAI.mil pro 3 miliony zaměstnanců Pentagonu, se zakázkami u společností Anthropic, OpenAI, xAI i Google.

NATO v přepracované strategii pro umělou inteligenci z července 2024 naléhavě vyzývá k zavedení generativní umělé inteligence „co nejdříve“.

Na straně protivníků: čínská Xian Technological University předvedla vojenskou simulaci na bázi modelu DeepSeek, kde systém vytváří 10 000 bojových scénářů za 48 sekund — oproti 48 hodinám lidského plánování. OpenAI v únoru 2026 varovalo americký Kongres, že čínské laboratoře pokračují v takzvaném nepřátelském destilování amerických nejpokročilejších modelů — systematickém kopírování schopností prostřednictvím uměle vytvořených dat.

V České republice neexistuje žádná obdoba francouzské AMIAD, britského Defence AI Centre ani amerického GenAI.mil. Podle žebříčku Oxford Insights Government AI Readiness Index se Česko umisťuje kolem 30. místa globálně (28. v roce 2024) a z obranných rozpočtů jde do projektů umělé inteligence naprosté minimum prostředků. Armáda v dubnu 2023 podepsala s ČVUT memorandum o spolupráci v oblasti přelomových technologií, studenti Univerzity obrany experimentovali se softwarem pro zpracování satelitních snímků — ale systematický program pro nasazení jazykových modelů v obraně veřejně neexistuje.

Co čísla říkají o češtině v umělé inteligenci

Propast mezi angličtinou a češtinou v jazykových modelech je měřitelná a systematická.

BenCzechMark, vytvořený konsorciem CZLC (VUT Brno, FI MUNI, CIIRC ČVUT), testuje přes 50 modelů na 50 úlohách, z nichž 90 % je v původní, nepřeložené češtině. Výsledky potvrzují přetrvávající 10–30% propady výkonu mezi angličtinou a češtinou u všech testovaných modelů. Na úloze Umímeto-Czech dosahuje 19 z 50 hodnocených modelů nulového skóre.

Test advokátní kanceláře HAVEL & PARTNERS na 1 840 otázkách z advokátních zkoušek České advokátní komory dopadl jednoznačně: žádný ze samostatných modelů zkoušku nesložil v žádném z pěti kol (hranice 85 ze 100 bodů). Nejlépe si vedl Claude-3-Opus, ale ani ten hranici nepřekonal. Teprve systém kombinující GPT-4 s českou právní databází (metoda rozšířeného vyhledávání, známá jako RAG) zkoušku složil — což ukazuje, že bez specifických českých zdrojů modely na české právo nestačí.

Kulturní znalosti jsou ještě problematičtější. Martin Richter z Univerzity Hradec Králové (Historia Aperta, 2025) pokusně prokázal, že jazykové modely při popisu českých dějin zaměnily sametovou revoluci za rozpad Rakouska-Uherska a vymyslely neexistující česká slova včetně jejich skloňovacích tvarů. Modely inklinují k významovému rámci konfliktu a mocenské nerovnováhy při popisu česko-německých vztahů, čímž produkují zúžený výklad.

Případ Járy Cimrmana představuje přirozený lakmusový test české kulturní gramotnosti umělé inteligence. Cimrman jako fiktivní postava záměrně prezentovaná v rámci „hry na realitu“ testuje, zda model chápe metarovinu českého humoru — nebo zda ho prezentuje jako skutečnou historickou osobnost. Formální studie dosud neexistuje, ale každý, kdo se o to pokusil, ví, že výsledky bývají komické i znepokojivé zároveň.

Výzkum Tao a kol. (2024, PNAS Nexus) testující pět verzí GPT na datech ze 107 zemí prokázal, že kulturní hodnoty modelů GPT jsou nejblíže anglosaským a protestantským evropským zemím a nejvzdálenější od hodnot východní Evropy. Ada Lovelace Institute v roce 2025 identifikoval tři zdroje kulturního zkreslení: algoritmickou jednolitost na trhu jazykových modelů, převahu západních trénovacích dat a doladění po základním tréninku s převážně západními hodnotiteli.

Pro bezpečnostní složky to má konkrétní důsledky: model, který nerozumí českému právnímu systému, zkresluje české dějiny a uplatňuje anglosasský kulturní rámec, není vhodným nástrojem pro zpravodajskou analýzu českého prostředí.

Sedm malých národů, sedm strategií

Česko není jedinou zemí, která řeší jazykovou suverenitu v umělé inteligenci. Srovnání se zeměmi v obdobné situaci ukazuje, že řešení existují — a že se liší zásadně v ambicích i nákladech.

Island (370 000 mluvčích) vsadil na spolupráci s giganty. Čtyřicet dobrovolníků trénujících GPT-4 a 4 miliardy slov kvalitních textů dodaných přímo společnosti OpenAI přinesly měřitelný výsledek za zlomek nákladů. Celková investice: přibližně 14 milionů eur za pět let.

Finsko (5,5 milionu mluvčích) zvolilo nejambicióznější cestu. Superpočítač LUMI (380 petaflopů, investice 144,5 mil. eur) slouží jako základna pro modely Viking 7B/13B/33B vyvinuté firmou SiLo AI. Společnost AMD tuto firmu v srpnu 2024 koupila za 665 milionů dolarů. Finská vláda přidala dalších 250 milionů eur na rozšíření a usiluje o hostování celoevropské továrny na umělou inteligenci.

Estonsko (1,1 milionu mluvčích) zapojuje umělou inteligenci přímo do státní správy. Strategie „Kratt“ identifikovala přes 200 využití v ústřední vládě, 37 % úředníků již umělou inteligenci používá. Investice přibližně 130 milionů eur, cíl ušetřit 21 milionů hodin administrativní práce ročně do roku 2030. Menší důraz na vlastní nejpokročilejší model, větší na praktické nasazení.

Norsko (5,4 milionu mluvčích) zapojilo mediální společnosti jako poskytovatele trénovacích dat a Národní knihovnu jako správce datové infrastruktury pro umělou inteligenci. Vládní závazek: 1 miliarda norských korun (přibližně 90 mil. eur) na výzkum za pět let.

Maďarsko (13 milionů mluvčích, nejbližší srovnání s Českem) zvolilo akademický přístup. Modely PULI (6,7 miliardy parametrů) a přizpůsobení Llamy vyvíjí HUN-REN NYTK převážně za výzkumné granty. Menší efektivně přizpůsobené modely ukazují, že i s omezenými prostředky lze dosáhnout výsledků. Maďarsko však postrádá průmyslového partnera typu Seznam.cz.

Izrael představuje paradox: světová špička v talentu pro umělou inteligenci (1. místo v citacích na článek), ale nemá národní hebrejský jazykový model. Nagelova komise v srpnu 2025 varovala, že Izrael „není na správném místě ani na žádoucí trajektorii“ — přímá obdobnost s Českem, kde je vysoký talent, ale nedostatečná infrastruktura.

Švýcarsko vydalo v září 2025 model Apertus se 70 miliardami parametrů trénovaných na 15 bilionech jednotek textu na superpočítači Alps. Plně otevřený přístup s investicí 20 milionů švýcarských franků — ale vyžaduje masivní superpočítačové zázemí, které Česko zatím nemá.

Pro Česko se nabízí smíšená cesta: islandská spolupráce s globálními poskytovateli na zlepšení češtiny, finský vzor využití evropských superpočítačů pro trénink a — to je klíčový chybějící dílek — francouzský bezpečnostní rámec s vyhrazenou infrastrukturou pro obranné účely.

Přízvuk umělé inteligence v češtině

Jazykové modely vytvářejí český text, který Čech pozná. Ne proto, že by obsahoval hrubé chyby, ale proto, že zní „jinak“. Přílišná formálnost, absence hovorových výrazů, sklon k dlouhým souvětím s konektory typu „nicméně“ a „nadto“, nedostatečné využívání české frazeologie, napodobování anglických větných struktur a naprostá absence regionálních variant a obecné češtiny — to je přízvuk umělé inteligence.

Příčina je strukturální. Jak potvrzují české zdroje, modely obsah českého vstupu nejprve vnitřně zpracují v angličtině a odpověď pak formulují zpět česky. Nejde o rodilé české myšlení, ale o skrytý překlad. Studie s 48 párovými matematickými úlohami (6 modelů, 576 odpovědí) ukázala, že anglické odpovědi jsou soustavně delší a podrobnější než české u všech testovaných modelů — přestože čeština je tvaroslovně bohatší jazyk, který by teoreticky měl umožnit stručnější vyjádření.

Pro běžnou konverzaci to může být nepodstatné. Pro tvorbu úředních textů, analýz nebo zpravodajských výstupů je to problém. Model, který „myslí anglicky“, bude české texty formulovat podle anglosasských stylistických zvyklostí — a s nimi přejímat i anglosasský kulturní a analytický rámec.

Kde je pravda složitější

Tři námitky si zaslouží poctivé zvážení.

Za prvé: je nezávislý model realistický? Trénink nejpokročilejšího modelu od nuly stojí stovky milionů dolarů a vyžaduje tisíce výpočetních jednotek. Česko nemá a v dohledné době mít nebude prostředky na konkurování společnostem OpenAI nebo Google. Tato námitka je oprávněná — ale nikdo netvrdí, že Česko potřebuje konkurovat GPT-5. Potřebuje model dostatečně kvalitní pro specifické české bezpečnostní a správní účely, dotrénovaný na českých datech a provozovaný na české infrastruktuře. Island ukázal, že i investice v řádu milionů eur může přinést měřitelné výsledky.

Za druhé: nevyřeší to OpenEuroLLM? Projekt koordinovaný z Prahy je ambiciózní a důležitý. Ale pokrývá desítky jazyků, jeho prvotní zaměření je akademicko-komerční a první modely budou k dispozici nejdříve v polovině roku 2026. Bezpečnostní rozměr — prověření modelů pro zpravodajské účely, dotrénování na utajované dokumenty, certifikace pro obranné nasazení — v projektu obsažen není.

Za třetí: nestačí průběžné dotrénování existujících modelů, jak dělá Seznam? Pro komerční účely pravděpodobně ano. Pro bezpečnostní účely je to složitější. Průběžné dotrénování zlepšuje jazykovou kvalitu, ale nedává plnou kontrolu nad architekturou modelu, jeho bezpečnostními vlastnostmi ani nad tím, jaká data vstoupila do základního tréninku. Francouzský přístup — nasazení prověřeného modelu na vyhrazené infrastruktuře — představuje vyšší úroveň kontroly.

Přes tyto výhrady zůstává klíčový fakt: Francie, Německo, Velká Británie a USA bezpečnostní rozměr umělé inteligence aktivně řeší. Česko ani veřejně nediskutuje, zda by mělo.

Jungmann měl slovník. My potřebujeme model.

V prvních desetiletích 19. století vypadala situace češtiny beznadějně. Němčina ovládala vědu, správu a vyšší vzdělávání. Čeština přežívala jako „nízký“ jazyk, kterým se mluvilo na venkově a v hospodách. Obrozenci — Jungmann, Palacký, Šafařík — vědomě budovali jazykovou infrastrukturu: slovníky, mluvnice, encyklopedie, vědecké názvosloví. Ne proto, že by to bylo hospodářsky racionální, ale proto, že chápali jazykovou suverenitu jako předpoklad politické emancipace.

Paralela s dneškem je analyticky nosná, nikoli jen řečnická. Dnes angličtina ovládá infrastrukturu umělé inteligence stejně jako němčina ovládala tehdejší vědu a správu. České bezpečnostní dokumenty, zpravodajské analýzy a vojenské doktríny jsou pro globální modely vedlejší, zpracovávané přes anglický filtr. A stejně jako tehdy platí, že jazyková závislost není jen kulturní problém — je to problém mocenský.

Česko koordinuje největší evropský projekt otevřených jazykových modelů, má silnou akademickou tradici a jedinou evropskou technologickou firmu provozující vlastní model pro český trh. Má superpočítač, který bude do konce roku schopen trénovat modely. Disponuje talenty, daty i institucemi.

Co nemá, je vůle propojit tyto schopnosti s bezpečnostním sektorem. Realistická investice na národní jazykový program umělé inteligence — 50 až 100 milionů eur za pět let — představuje zlomek plánovaných výdajů na velké infrastrukturní projekty. Jungmann své dílo vytvořil bez státní podpory, za ztížených podmínek, protože chápal, co je v sázce. Dnes má český stát prostředky, infrastrukturu i znalosti. Otázkou není, zda si to může dovolit. Otázkou je, zda si může dovolit to neudělat.

Tato analýza byla připravena s pomocí umělé inteligence. Data a zdroje byly ověřeny k datu zpracování (22. 2. 2026). Před použitím pro rozhodování doporučujeme nezávislé ověření klíčových zjištění.

Klíčové zdroje

BenCzechMark: Fejgl a kol. (2024), Transactions of the Association for Computational Linguistics, MIT Press. 50 úloh, 90 % nativní česká data. arxiv.org/html/2412.17933v1

České advokátní zkoušky: HAVEL & PARTNERS (březen 2024), 1 840 otázek ČAK, 5 kol. en.havelpartners.blog

OpenEuroLLM: přes 20 partnerů, rozpočet 37,4 mil. eur, koordinátor ÚFAL MFF UK. openeurollm.eu

SeLLMa / Seznam Asistent: průběžné dotrénování Llama 3.1, 70 mld. parametrů, investice přes 100 mil. Kč. Lupa.cz (25. 11. 2025), e15.cz

NAIS 2030: Národní strategie umělé inteligence ČR 2030, MPO, schválena 24. července 2024. mpo.gov.cz

Francie/Mistral — obranná smlouva: leden 2026, rámcová smlouva pro všechny složky ozbrojených sil. Reuters (8. 1. 2026)

Helsing: hodnota přibližně 5,4 mld. eur, autonomní obranné systémy. tech-now.io

USA GenAI.mil: prosinec 2025, nasazení pro 3 mil. zaměstnanců ministerstva obrany. DefenseScoop (9. 12. 2025)

NATO — strategie pro umělou inteligenci: přepracováno v červenci 2024. nato.int

Čína/DeepSeek — vojenské simulace: South China Morning Post

Kulturní zkreslení jazykových modelů: Tao a kol. (2024), PNAS Nexus. Oxford Academic

Zkreslení podle pohlaví v češtině: Martinková, Stanczak, Augenstein (2023), pracovní skupina SlavicNLP při konferenci ACL. aclanthology.org

České dějiny v jazykových modelech: Richter (2025), Historia Aperta sv. 54. journals.uhk.cz

Island/islandština v GPT-4: Miðeind, spolupráce s OpenAI. mideind.is, ArcticToday

Finsko/LUMI: 380 petaflopů, investice 144,5 mil. eur. CSC (csc.fi); SiLo AI, akvizice AMD za 665 mil. USD. amd.com (12. 8. 2024)

Estonsko/Kratt: přes 200 využití v státní správě, 37 % úředníků. The Mandarin

Maďarsko/PULI: HUN-REN NYTK, Racka-4B. arxiv.org (2601.01244)

Izrael — Nagelova komise: srpen 2025. Israel Tech Insider

Švýcarsko/Apertus: ETH Zurich, 70 mld. parametrů, licence Apache 2.0. ethz.ch (září 2025)

NÚKIB — kybernetická bezpečnost: Národní strategie 2026–2030. nukib.gov.cz

Armáda ČR — memorandum ČVUT: duben 2023. acr.mo.gov.cz

KarolAIna / Czech AI Factory: 850 petaflopů, zprovoznění koncem roku 2026. Innovate Moravia

Transparentnost tvorby:

Koncepce, struktura a redakční linie článku jsou dílem autora, který vypracoval obsahovou skicu, stanovil klíčové teze a řídil celý proces tvorby. Generativní AI (Claude, Anthropic) byla využita jako technický nástroj pro rešerši, ověřování faktů a rozepsání autorovy předlohy.

Autor výstupy průběžně redigoval, ověřil klíčová zjištění a schválil finální znění. Žádná část textu nebyla publikována bez lidské kontroly. Všechny faktické údaje byly ověřeny proti veřejně dostupným zdrojům uvedeným v textu.

Postup je v souladu s požadavky Čl. 50 Nařízení EU 2024/1689 (AI Act) na transparentnost AI-generovaného obsahu. #poweredByAI

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít publikovat svůj obsah. To nejlepší se může zobrazit i na hlavní stránce Seznam.cz