Článek
Nasazení generativní AI do právní praxe slibuje revoluci v efektivitě, přináší však skryté riziko: algoritmický bias.
Pokud právník využívá nástroje trénované na historicky zkreslených datech, může nevědomky replikovat diskriminaci nebo poskytnout radu, která nezohledňuje specifika zranitelných skupin.
Inkluzivní design v právním techu proto neznamená jen „přístupnost webu“. Jde o architekturu řešení, která je spravedlivá a srozumitelná pro všechny bez ohledu na technickou zdatnost či původ.
V kontextu Legal Project Managementu (LPM) se etika posouvá z teoretické roviny do role kritického řízení rizik (Risk Management).
Řešením je implementace kontrolního procesu (viz schéma níže), který zajistí, že žádný výstup AI neopustí kancelář bez lidské validace.
S příchodem EU AI Act, který klasifikuje určité právní systémy jako vysoce rizikové, se princip „Human-in-the-loop“ mění z dobré praxe na tvrdý compliance požadavek.

Schéma etického postupu
Zdroje:
Brown, K. C., University of Michigan Law School. Generative artificial intelligence: Legal ethics issues. Michigan Bar Journal, 2025. [Online]. Dostupné z: https://repository.law.umich.edu/librarian/61/
Pinsent Masons. A guide to high-risk AI systems under the EU AI Act. [Online]. Dostupné z: https://www.pinsentmasons.com/out-law/guides/guide-to-high-risk-ai-systems-under-the-eu-ai-act
NIST (National Institute of Standards and Technology). There’s More to AI Bias Than Biased Data. [Online]. Dostupné z: https://www.nist.gov/news-events/news/2022/03/theres-more-ai-bias-biased-data-nist-report-highlights

