Článek
Když se mluví o umělé inteligenci, nejčastěji se řeší produktivita, pracovní místa nebo nové funkce v kancelářských nástrojích. To je pochopitelné. Jenže největší společenský dopad může přijít odjinud.
AI totiž nezačíná měnit jen to, jak rychle pracujeme, ale i to, čemu a komu věříme.
Ještě donedávna platilo, že text, odpověď nebo komentář nesly aspoň nějakou stopu lidského přemýšlení. Dnes už to přestává být jisté. Stejný e-mail, stejnou seminární práci nebo stejný „vlastní názor“ může vytvořit člověk, který se nad věcí opravdu zamyslel, i někdo, kdo jen zadal dobrý prompt. Výsledek může na první pohled vypadat podobně. A právě tady se celý problém láme.
Nejde jen o technologický posun. Jde o to, že se rozmazává hranice mezi autentickým úsudkem a jeho věrohodnou napodobeninou.
Ve škole už nejde jen o opisování
Debata o AI ve školství se často zjednodušuje na otázku, jestli žáci „podvádějí“. To je ale slabý popis reality.
Skutečný problém je hlubší. Když má student neustále po ruce nástroj, který umí během pár sekund napsat shrnutí, argument, osnovu nebo odpověď, mění se samotný význam toho, co znamená něco umět. OECD letos upozornila, že s nástupem výkonné AI se znovu otevírá otázka, co mají učitelé vlastně učit a co se mají žáci skutečně naučit sami.
To je poměrně zásadní rozdíl. Dřív byla hlavní otázka, zda má student správnou informaci. Dnes je stále častěji důležitější, zda vůbec prošel procesem myšlení, který k ní vede.
Podle novějších podkladů OECD už navíc není AI ve vzdělávání okrajový experiment. V některých školních průzkumech naprostá většina studentů i velká část učitelů uvádí, že AI nástroje používají, často hlavně pro domácí práci, vyhledávání nebo tvorbu obsahu. UNESCO k tomu už dříve varovalo, že generativní AI může bez jasných pravidel oslabovat lidskou autonomii při učení a deformovat vztah mezi učením, znalostí a odpovědností.
Škola tak dnes neřeší jen novou pomůcku. Řeší, jak poznat, co je práce žáka, co je práce modelu a co ještě vůbec považujeme za porozumění.
V médiích začíná být dražší lidský úsudek
Podobný posun je vidět i v médiích. Ne proto, že by AI automaticky „zničila novinařinu“, ale protože mění ekonomiku i vnímání obsahu.
Reuters Institute letos ukázal, že mediální domy budou dál experimentovat s generativní AI v oblasti sběru informací, distribuce i balení obsahu. Zároveň ale sílí obava, že vyhledávání i informační chování lidí se přesouvá do AI rozhraní a že pro publikum bude stále těžší rozlišit mezi původní novinářskou prací, shrnutím a syntetickým obsahem.
To není jen technická změna. Je to změna důvěřivého prostředí.
Čtenář si totiž zvykal na to, že za textem je redakce, editor, autor a nějaká forma odpovědnosti. Pokud se ale informační prostor zaplní výstupy, které budou plynulé, okamžité a levné, poroste tlak na rychlost a zároveň klesne samozřejmost, že obsah někdo opravdu promyslel.
Lidský úsudek se v takovém prostředí nestává zbytečný. Naopak. Stává se vzácnější a dražší komoditou.
Ve firmách se neoutsourcuje jen práce, ale i soudnost
Ve firemním prostředí to bývá méně vidět, protože tam AI často opravdu šetří čas. Shrne schůzku, připraví odpověď, roztřídí e-maily, navrhne text, zpracuje podklady. To všechno může být užitečné.
Jenže i tady vzniká tichý problém. Firmy si začínají zvykat nechat AI nejen pomáhat, ale i předžvýkávat úsudek. Návrh odpovědi, doporučený tón, shrnutí situace, návrh rozhodnutí. Na papíře to vypadá jednodušeji než v reálném provozu.
Problém tedy není samotná technologie, ale způsob jejího nasazení.
Když člověk používá AI jako pomocníka, který urychlí rutinu, je to rozumné. Když ji ale začne používat jako náhradu vlastního vyhodnocení situace, vzniká nové provozní riziko. Výstup může znít jistě, přehledně a profesionálně, ale to ještě neznamená, že je správný. A už vůbec ne, že za něj někdo skutečně převzal odpovědnost.
Právě proto se v posledních měsících tolik řeší nejen výkonnost modelů, ale i jejich důvěryhodné používání, lidský dohled a AI gramotnost lidí, kteří s nimi pracují. Evropská komise už otevřeně říká, že AI gramotnost zaměstnanců není volitelný bonus, ale povinnost, která se podle AI Act vztahuje na organizace pracující s AI systémy už od února 2025.
To je důležitý signál. Evropa tím vlastně říká, že problém není jen v tom, co AI umí, ale i v tom, jak málo jí lidé rozumějí ve chvíli, kdy ji začnou používat v důležitých situacích.
Důvěra se stává novou slabinou digitální společnosti
Dlouhé roky jsme řešili hlavně pravdivost informací. Teď se k tomu přidává další vrstva: původ úsudku.
U textu, prezentace, analýzy nebo argumentu už nebude samozřejmé, že prošly lidskou hlavou od začátku do konce. A nemusí jít ani o podvod v klasickém smyslu. Může jít o běžnou praxi, kdy člověk něco „jen trochu doplní“ po modelu, přeformuluje to a pošle dál.
Jenže společnost stojí i na nepsané dohodě, že v určitých situacích mluví člověk sám za sebe. Učitel při hodnocení. Autor při komentáři. Zaměstnanec při rozhodnutí. Student při odevzdání práce.
Jakmile se tahle jistota začne vytrácet, neztrácíme jen přehled o původu obsahu. Ztrácíme i část důvěry, na které stojí spolupráce.
Evropská pravidla proto tlačí i na transparentnost. Podle Evropské komise budou od srpna 2026 platit další pravidla AI Actu včetně transparentnostních požadavků, mimo jiné kolem identifikovatelnosti AI-generovaného obsahu a označování některých deepfake či veřejně informujících syntetických materiálů.
To ale samo o sobě nestačí. Označování obsahu je jen technická brzda. Důvěru stejně bude muset nést kultura používání, pravidla ve školách, redakční standardy a firemní provoz.
Co z toho plyne
Největší otázka kolem AI možná nakonec nebude, kolik práce nahradí. Mnohem důležitější může být, kolik nejistoty vnese mezi lidi.
Ve škole může oslabit vztah mezi výkonem a porozuměním. V médiích může zamlžit hranici mezi autorem a syntetickým obsahem. Ve firmách může vytvořit iluzi, že dobře znějící výstup je totéž jako dobré rozhodnutí.
Budoucí výhoda tedy nebude jen v tom, kdo umí AI nejrychleji používat. Výhoda bude v tom, kdo si i v jejím prostředí udrží úsudek, odpovědnost a schopnost poznat, kdy se na výstup dá spolehnout a kdy ne.
AI totiž nenarušuje jen práci. Začíná narušovat i důvěru. A to může být pro společnost mnohem větší změna, než se dnes zdá.
Zdroje
- OECD – What should teachers teach and students learn in a world of powerful AI?
- OECD – AI Adoption in the Education System
- UNESCO – Guidance for generative AI in education and research
- Reuters Institute – Journalism, Media, and Technology Trends and Predictions 2026
- Evropská komise – AI Act
- Evropská komise – AI Literacy: Questions & Answers






