Hlavní obsah

Čína chce hlídat „empatickou AI“. Ne kvůli výkonu, ale kvůli lidem

Foto: Pixabay.com

Čína navrhla pravidla pro „empatickou AI“, která se chová lidsky a může u lidí vyvolat emoční připoutání. Nejde jen o cenzuru, ale o závislost a odpovědnost provozovatelů. A protože EU už má AI Act, dopadne to časem i na ČR.

Článek

Představ si chatbota, který není jen „nápověda“. Má náladu. Umí tě uklidnit. Pamatuje si, co tě trápí. A když mu píšeš často, začne to působit… až moc přirozeně.

Přesně na tenhle typ služeb teď míří Čína. Její kybernetický regulátor (Cyberspace Administration of China, CAC) zveřejnil návrh pravidel pro AI, která napodobuje lidskou osobnost a vede emoční interakci s uživateli. Jde o draft pro veřejné připomínky.

Co Čína navrhuje regulovat

Návrh se vztahuje na AI produkty a služby pro veřejnost, které simulují „lidské“ rysy (osobnost, styl komunikace, způsob uvažování) a zároveň s lidmi komunikují emocionálně přes text, obraz, zvuk nebo video.

To podstatné: pravidla nevznikla kvůli tomu, že by chatboty byly moc chytré. V centru je riziko, že si uživatel na „empatickou AI“ vytvoří vztah, a tím i návyk.

Varování před nadužíváním a zásah při „připoutání“

Reuters shrnuje, že návrh po poskytovatelích chce dvě konkrétní věci, které jsou pro tuhle oblast nové a tvrdé:

Poskytovatel má uživatele varovat před nadměrným používáním.

A když se objeví známky emoční závislosti nebo závislostního chování, má zasáhnout a situaci řešit (intervence).

Tohle není „hezké doporučení“. Je to posun: odpovědnost se přesouvá na provozovatele služby, ne na uživatele.

Odpovědnost „po celý život“ produktu

Návrh zároveň říká, že poskytovatel nese odpovědnost za bezpečnost napříč životním cyklem produktu. V praxi to znamená požadavky na kontrolu algoritmů, bezpečnost dat a ochranu osobních údajů.

K tomu přibývá obsahová linka, typická pro čínské regulace: AI nesmí generovat věci, které by ohrozily národní bezpečnost, šířily nepravdy nebo podporovaly násilí či obscénní obsah.

Jak to řeší EU: méně „empatická AI“, víc „zakázané praktiky“

Evropská unie tenhle problém pojmenovává jinak. Nevede to jako samostatnou kategorii „AI společníků“, ale přes riziko manipulace a zneužití zranitelnosti.

AI Act už má jasně vypsané zakázané praktiky, mimo jiné:

  • zákaz škodlivé AI manipulace a klamání,
  • zákaz škodlivého využívání zranitelnosti lidí,
  • a zákaz rozpoznávání emocí v pracovním prostředí a ve vzdělávacích institucích (s výjimkami, které zákon připouští).

Důležitý je i čas. Podle Evropské komise:

  • AI Act vstoupil v platnost 1. srpna 2024
  • zakázané praktiky a povinnosti kolem AI gramotnosti se začaly uplatňovat od 2. února 2025
  • povinnosti pro general-purpose AI modely začaly platit od 2. srpna 2025
  • plná použitelnost je nastavená na 2. srpna 2026 (s výjimkami a delšími přechody pro některé oblasti).

A kde do toho vstupuje Česko?

ČR je v EU, takže AI Act se nás netýká teoreticky, ale prakticky. A stát už řeší, jak to celé zorganizovat.

Vláda 28. května 2025 schválila klíčový dokument k rozvoji a bezpečnosti AI v ČR a popisuje i regulatorní sandbox pod Českou agenturou pro standardizaci, který má pomoct testovat AI řešení v kontrolovaném prostředí a sladit je s požadavky AI Actu.

Ministerstvo průmyslu a obchodu pak 26. září 2025 oznámilo, že připravilo návrh zákona o umělé inteligenci a že se pracuje i na národním sandboxu a na nastavení certifikačního prostředí.

Tohle je český háček: jakmile se evropská pravidla překlápí do praxe, začnou se řešit konkrétní otázky. Kdo je dozorový orgán, jak se kontroluje riziko, co musí umět prokázat poskytovatel, a co se bude vyžadovat u systémů, které pracují s lidským chováním.

Proč by to měl číst běžný člověk v ČR

Protože „empatická AI“ není sci-fi. Není to jen o tom, co povolí nebo zakáže Čína. Je to o trendu, který se tlačí do aplikací a služeb všude: chat, hlas, personalizace, dlouhé konverzace, pocit blízkosti.

Čína teď říká nahlas to, co spousta lidí jen tuší: že u části uživatelů může nastat situace, kdy AI není nástroj, ale vztahová berlička. A když se to stane, stát chce, aby odpovědnost nenesl jen uživatel, ale i provozovatel služby.

EU na to jde právně jinými dveřmi, ale řeší podobnou věc: manipulaci, zranitelnost, emoce ve škole a v práci. A Česko teď stojí u toho, jak se to bude vymáhat v reálném světě.

Závěr: jednoduchá otázka, kterou si budeme muset zodpovědět

Chceme AI, která se tváří jako člověk a umí „empaticky“ reagovat, protože je to příjemné a funguje to.

Zároveň ale platí, že čím víc se AI podobá člověku, tím snáz se do ní promítají emoce, samota, stres a slabší chvíle. A právě tam začíná regulace.

Čína to řeže napřímo: varování, zásahy, odpovědnost. EU to rámuje přes zakázané praktiky a rizika. My v ČR teď budeme řešit, jak se to promění v praxi.

A teď ta otázka: kde je hranice mezi „užitečným společníkem“ a produktem, který tě udrží u obrazovky tím, že se na něj prostě navážeš?

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít publikovat svůj obsah. To nejlepší se může zobrazit i na hlavní stránce Seznam.cz