Článek
Do cílové rovinky evropského legislativního procesu se po třídenním vyjednávacím maratonu dostal Akt Evropské unie o umělé inteligenci (EU AI Act). Jde o celosvětově první soubor pravidel pro regulaci umělé inteligence.. K umělé inteligenci přistupuje na základě hodnocení rizik a klade důraz na bezpečnost a transparentnost. Finální ale kompromisní podoba nařízení ještě nebyla zveřejněna, přesto je již možné na základě informací od institucí vyvozovat první závěry.
Proč je to potřeba?
Evropská ekonomika bude pravděpodobně čím dál víc závislá na efektivním využití umělé inteligence, což je soubor technologií, které kombinují tři základní ingredience: data, algoritmy a výpočetní výkon. Zatímco matematici a programátoři hledají způsoby, jak vytvořit nejchytřejší systém s co nejpřesnějšími výsledky, neměli bychom opomíjet druhou stránku této mince: jaké budou důsledky pro naše každodenní životy.
Jak nastavíme podmínky pro využití AI tak, aby z ní co nejvíce lidí i firem mělo užitek, abychom zároveň minimalizovali její nechtěný dopad na naši společnost?
Je těžké si v tuto chvíli představit rozsah budoucích aplikací, ale zatím to vypadá, že cokoliv vás napadne, se v blízké budoucnosti může stát realitou. Zdravotní péče a lepší stanovení diagnózy? Určitě ano. Zvýšení efektivity vědeckého výzkumu, které může přispět ke zmírnění klimatických změn? Proč ne. Osobní vzdělávací asistent? Může být. Váš osobní trenér nebo terapeut? I to je možné. Automatická zákaznická podpora? Banky už to testují. Kontrola toho, aby řidič neusnul? I ve vašem voze.
Kde spatřujeme rizika?
Právě v široké a zatím neurčité paletě aplikací, z nichž některé se mohou týkat i velmi citlivých a dokonce intimních částí našeho života. V těch může špatně vytvořená nebo dokonce zlá umělá inteligence napáchat mnoho škod. Umělá inteligence bude pronikat do našich domácností a řídit obsah našich sociálních sítí i lednice. Nelze vyloučit, že bude rozhodovat i o tom, co nosíme, koho obdivujeme, jak se cítíme, nebo kam cestujeme na dovolenou.
A proč to řeší právě Brusel? Žádná evropská země není dostatečně silná, aby prosadila svou vlastní regulaci AI a aby její legislativa obstála proti velkým světovým hráčům, mezi které se řadí firmy jako Meta (Facebook), Microsoft nebo Alphabet (Google).
Každá správně uchopená regulace má co nejvíce snižovat rizika dané technologie, a současně co nejméně omezit inovační potenciál firem a užitek pro jednotlivce. Jednoduše řečeno, chytře omezit tam, kde je to třeba, a nikde jinde. Položme si tedy několik základních otázek, které nám pomohou vytyčit hřiště.
Chceme, aby umělá inteligence mohla ovlivňovat lidi k tomu, aby hlasovali ve volbách pro konkrétní politickou stranu? Chceme, aby dokázala využívat zranitelnosti nebo nevyspělosti jednotlivce? Aby existovaly hračky, které budou děti navádět k tomu, aby udělaly něco nebezpečného? Chceme, aby samotná umělá inteligence rozhodovala o tom, jestli nás zaměstnavatel vybere k pohovoru, nebo nám počítala sociální skóre, na jehož základě získáme nájemní smlouvu?
Jak moc chceme nebo musíme chápat, co se uvnitř umělé inteligence děje? Asi je vám jedno, proč se AI rozhodla, jestli je na obrázku pejsek nebo kočička. Ale nejspíš budete chtít vědět, proč se rozhodla, zda dostanete půjčku v bance. Těmto požadavkům se říká transparentnost a vysvětlitelnost. Pomáhají nám zajistit to, že umělá inteligence bude nadále pod kontrolou lidí a ne naopak.
Jak to funguje v novém regulatorním rámci?
Už víme, proč je regulace potřeba.Podívejme se na základní obrysy vznikající dohody. EU AI Act k těmto úvahám přistoupil podle vzorce, ve kterém dělí systémy umělé inteligence na 4 úrovně podle závažnosti rizik pro jedince nebo společnost: nepřijatelná, vysoká, omezená a minimální rizika. Zároveň bude regulace jasně vymezovat své pole působnosti, takže ji bude možné uplatňovat jen v oblastech pravomoci EU.
Mezi systémy, které budou v EU v budoucnu nepřijatelné, se řadí například umělá inteligence, která manipuluje lidské chování, hromadně získává fotky lidí z internetu nebo rozeznává emoce v práci nebo ve vzdělávacích institucích. Zakázán bude také prediktivní policejní dohled, tedy umělá inteligence, která vyhodnocuje pravděpodobnost, že daná osoba spáchá nějaký trestný čin.
Jako vysoce rizikové jsou klasifikované aplikace ve vzdělávání (přístup ke vzdělávání nebo hodnocení výsledků), v kritické infrastruktuře, ve veřejných službách, dále systémy pro hraniční kontroly (to se týká i běžné biometriky na letištích) a v oblasti spravedlnosti a vymáhání práva. Návrh Evropského parlamentu chtěl do tohoto seznamu zahrnout také systémy, které doporučují obsah sociálních sítí, ale zákonodárci nakonec ze svého požadavku ustoupili.
Aby mohly být vysoce rizikové systémy nasazeny na evropském trhu, musí být prokazatelně navržené a vyvinuté tak, aby účinně zamezovaly diskriminaci a zajišťovaly respektování základních lidských práv. Jejich poskytovatelé musí vést dokumentaci a pravidelně školit své zaměstnance. Pro další minimalizaci rizik vyžaduje AI Act také lidský dohled nad těmito systémy. Produkční nasazení technologie nesmí probíhat automaticky, vždy musí jít o vědomé lidské rozhodnutí.
Systémy s malým rizikem budou naopak podléhat pouze nízké formě požadavků na transparentnost. To by se mělo projevovat zejména tím, že uživatelé budou jasně informování o tom, že interagují s AI systémem.
Důsledky regulace
Mohou, ale nemusí být dalekosáhlé. Samozřejmě existují firmy, které již investovaly do technologií, které budou nyní zakázané. Ty by se měly soustředit na co nejrychlejší změnu své strategie a začít hledat jiný segment trhu. Proč ale tyto požadavky pro většinu firem velké riziko představovat nemusí? Autor těchto řádků by chtěl ve své naivitě doufat, že provozovatelé umělé inteligence se již nyní chovají zodpovědně a rizikové systémy dostatečně monitorují. A pokud se firmy budou muset přizpůsobovat, zvýšená administrativní zátěž, školení personálu a s tím spojené náklady zajistí vyšší důvěryhodnost a bezpečnost AI v Evropě.
Tento článek byl původně publikován v Hospodářských novinách a nebyl vygenerován umělou inteligencí.