Návrh nařízení EU o umělé inteligenci („Artificial Intelligence Act“)


Dne 21. července 2021 byl na půdě Senátu Parlamentu ČR v rámci 14. schůze projednán Návrh nařízení EU, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty Unie („Návrh“). Jedná se o návrh přímo použitelného předpisu sekundárního práva, který má za cíl vytvořit celoevropský rámec pro regulaci systémů umělé inteligence („systémy AI“).

Jakožto rozvíjející se technologie byly systémy AI předmětem mnoha odborných diskusí a oficiálních unijních jednání, jejichž výsledkem byla Bílá kniha o umělé inteligenci ze dne 19. února 2020, která je podkladem pro tento Návrh. Už z Bílé knihy je zřejmé, že diskusí nad regulací AI prostupují dva navzájem si odporující požadavky: podpora inovace a rozvoje AI, proti níž stojí předcházení rizik a negativních důsledků těchto technologií pro základní lidská práva. Jinak tomu není ani v případě tohoto Návrhu.

Vymezení AI

Umělá inteligence je velmi obtížně definovatelným pojmem. Návrh v článku 3 vymezuje systém AI jako „software, který je vyvinut pomocí jedné nebo více technik a přístupů uvedených v příloze I, a který může pro danou sadu cílů definovaných člověkem generovat výstupy, jako je například obsah, predikce, doporučení nebo rozhodnutí ovlivňující prostředí, s nimiž komunikují“. Dle důvodové zprávy definice vychází ze snahy o dosažení co největší technologické neutrality a maximalizaci budoucí použitelnosti regulace. Z definice je patrné, že návrh chápe systém AI pouze jako software vyvinutý určitým způsobem, s člověkem stanovenými cíli, který generuje výstupy pro naplnění těchto cílů. V souvislosti se způsobem vývoje systému AI definice obsahuje odkaz na přílohu nařízení, která má být po vstupu v platnost Komisí operativně rozšiřována, a to v rámci přenesené pravomoci. Mezi techniky a postupy, které v příloze už obsaženy jsou patří například strojové učení, včetně tzv. deep learning, nebo induktivní logické programování.

Kategorizace AI systémů

Jak bylo uvedeno výše, návrh se zabývá rovněž možnými riziky vyplývajícími z používání systémů AI. Z tohoto důvodu přistoupila Komise v návrhu ke kategorizaci systémů AI dle výše rizik do čtyř skupin.

První skupinou jsou systémy AI s nepřijatelnou úrovní rizika. Tyto systémy Návrh zásadně zakazuje, zejména pro rozpor s hodnotami Evropské unie. Nepřijatelnými systémy jsou například social scoring (hodnocení či klasifikace fyzických osob na základě jejich sociálního chování ze strany orgánů veřejné moci), nebo biometrická identifikace na dálku v reálném čase. Druhá z těchto technologií je však při existenci určitých závažných důvodů připuštěna.

Zdaleka nejkomplexnější regulaci podléhají systémy AI označené jako vysoce rizikové. Do této skupiny patří systémy AI v různých oblastech, např. systémy určující přístup ke vzdělání, při náboru či výběru osob pro uzavření pracovněprávního vztahu, nebo systémy řízení a provozu kritické infrastruktury. Vysoce rizikovými systémy AI tedy mohou být systémy s použitím jak v soukromoprávní, tak ve veřejnoprávní sféře. Regulace v případě těchto systémů určuje rozsáhlé povinnosti, zejména pro poskytovatele těchto systémů. Mezi tyto povinnosti poskytovatelů patří povinnost registrace systému AI do evropské databáze vysoce rizikových systémů.

Poslední kategorie regulovaných systémů AI jsou určité systémy, na které má být kladen požadavek transparentnosti (systémy s omezeným rizikem). To v praxi znamená, že poskytovatel AI systému určeného k interakci s fyzickými osobami (např. chatbot) musí zajistit, aby tyto fyzické osoby byly vždy informovány o tom, že interagují se systémem AI. Do této kategorie patří i manipulace s audiovizuálním obsahem (tzv. deepfake).

Osobní působnost nařízení

Aby byl subjekt dle Návrhu považován za poskytovatele systému AI, je nutné, aby systém vyvíjel nebo nechával vyvíjet pro použití pod vlastní značkou či ochrannou známkou. Je podstatné uvést, že Návrh ukládá povinnosti i uživatelům systémů AI, přičemž úprava nemá přímý dopad na osoby využívající systém AI při osobní neprofesionální činnosti.

Cílem evropských zákonodárců je co nejširší teritoriální dopad regulace, jelikož poskytovatelé i uživatelé systémů AI často sídlí ve Spojených státech nebo jiných třetích zemích. Poskytovatelé, kteří uvádějí na trh nebo do provozu systémy AI by měli regulaci podléhat bez ohledu na to, zdali sídlí mimo EU. Rovněž se nařízení má vztahovat na poskytovatele a uživatele systémů AI z třetích zemí, pokud se výstup tohoto systému používá v EU.

Odpovědnost za škodu způsobenou umělou inteligencí

Kromě výše uvedených témat je extenzivně diskutovaným problémem také institut odpovědnosti za škodu způsobenou systémem AI. Například Výbor pro evropské záležitosti Poslanecké sněmovny již delší dobu podporuje zavedení objektivní odpovědnosti za škodu, s důkazním břemenem na provozovateli, který bude mít zákonnou povinnost pojištění odpovědnosti.

Závěr

Návrh nařízení je v současné době ve fázi prvního čtení, finální verze tedy pravděpodobně bude obsahovat některé změny. Už v současnosti je však zřejmé, že tato iniciativa bude mít klíčový význam.

Celý text Návrhu nařízení o umělé inteligenci naleznete zde:

https://eur-lex.europa.eu/legal-content/CS/TXT/?uri=CELEX%3A52021PC0206&qid=1622729416704