Nařízení EU o umělé inteligenci vstoupí v platnost v srpnu 2024
Po prvním návrhu Evropské komise v dubnu 2021 přijal Evropský parlament nařízení EU o umělé inteligenci. Toto bylo zveřejněno v Úředním věstníku Evropské unie v červenci 2024 a nyní je k dispozici ve všech 24 úředních jazycích členských států EU. Nařízení oficiálně vstoupí v platnost v srpnu 2024, ačkoli většina ustanovení bude platit až o dva roky později. Pro jednotlivá ustanovení však platí různé lhůty. Nařízení stanovuje povinnosti pro společnosti, které vyvíjejí a/nebo používají systémy umělé inteligence v Evropské unii.
Harmonogram regulace AI v EU
Nařízení EU o umělé inteligenci bude vypracováno a implementováno podle následujícího harmonogramu:
Duben 2021: První návrh Evropské komise
Březen 2024: Přijato Evropským parlamentem
Červenec 2024: Oficiální zveřejnění v Úředním věstníku EU
Srpen 2024: Nařízení vstupuje v platnost
Polovina roku 2025: Plná implementace ve všech členských státech EU
Co je evropské nařízení o umělé inteligenci?
Evropský zákon o umělé inteligenci 2024 je nařízení Evropské komise, které má zajistit, aby systémy umělé inteligence byly používány „bezpečným, transparentním, sledovatelným, nediskriminačním a ekologickým způsobem“ . Nařízení má regulovat, jak mohou „poskytovatelé“ a „provozovatelé“ systémů AI vhodně zacházet se systémy AI v souladu s riziky, která představují. „Poskytovatel“ systémů AI je v nejširším slova smyslu společnost, která nabízí nebo vyvíjí systém AI pod svou vlastní značkou. Operátoři jsou ti, kteří používají technologie AI. Do této skupiny tedy může patřit jakákoliv společnost. Čím vyšší je riziko systému AI, tím přísnější jsou regulační požadavky.
Některé klíčové body práva EU o umělé inteligenci
- Klasifikace založená na riziku: Zákon o AI klasifikuje systémy umělé inteligence do různých úrovní rizika, z nichž každý má specifické regulační požadavky na řízení jejich potenciálních dopadů.
- Požadavky na transparentnost: Vysoce rizikové systémy umělé inteligence musí splňovat přísné požadavky na transparentnost a vedení záznamů, aby byla zajištěna odpovědnost a sledovatelnost.
- Lidský dohled: Některé systémy umělé inteligence vyžadují lidský dohled ke zmírnění rizik a dodržování etických standardů.
Úrovně rizik v právu EU o umělé inteligenci
Zákon o AI definuje čtyři úrovně rizika pro systémy AI, z nichž každá je spojena se specifickými regulačními požadavky:
Zdroj : Oficiální publikace Evropské komise o zákonu AI
Nepřijatelné riziko
Systémy umělé inteligence, které spadají pod tuto úroveň rizika, představují jasnou hrozbu a jsou přísně zakázány. Mezi příklady patří manipulace s chováním prostřednictvím kognitivních technik, jako jsou hračky ovládané hlasem, které přivádějí děti k nebezpečnému chování, nebo systémy sociálního hodnocení, které kategorizují lidi na základě jejich chování nebo osobních vlastností.
Vysoce rizikové systémy umělé inteligence
Systémy umělé inteligence v této kategorii mohou mít významný dopad na zdraví, bezpečnost nebo základní práva. Mezi příklady patří umělá inteligence při správě kritické infrastruktury, vzdělávání, zaměstnanosti a vymáhání práva. Všechny systémy umělé inteligence s vysokým rizikovým potenciálem musí před uvedením na trh a po celou dobu své životnosti projít přísným testováním. Jednotlivci mají právo nahlásit obavy ohledně systémů umělé inteligence příslušným vnitrostátním orgánům.
Omezené riziko
Tyto systémy umělé inteligence představují nízké riziko a podléhají požadavkům na transparentnost. Například uživatelé, kteří komunikují s chatboty, musí být informováni, že mluví s AI. Poskytovatelé musí také zajistit, aby obsah generovaný umělou inteligencí, zejména o tématech veřejného zájmu, byl jasně označen jako uměle vytvořený, bez ohledu na to, zda se jedná o text, zvuk nebo video.
Minimální nebo žádné riziko
Systémy umělé inteligence s minimálním nebo žádným rizikem nepodléhají dalším regulačním požadavkům. Mezi příklady patří videohry řízené umělou inteligencí a filtry nevyžádané pošty.
Compliance a AI: Co by měly společnosti dělat
Jak Evropská rada vysvětlila v tiskové zprávě v květnu , je důležité posoudit dopad na základní práva předtím, než některé společnosti poskytující veřejné služby zavedou vysoce rizikový systém umělé inteligence.
Poskytovatelé systémů AI by měli mít na paměti několik bodů:
- Proveďte posouzení rizik určením kategorie rizika systému AI a provedením nezbytných ochranných opatření.
- Vytvořte technickou dokumentaci k prokázání shody a předložte ji úřadům ke kontrole.
- Vyviňte systém umělé inteligence pro automatické protokolování událostí pro detekci rizik a systémových změn.
- Vytvořte pokyny pro operátory, abyste zajistili splnění požadavků.
Přestože operátoři nemají stejné povinnosti jako poskytovatelé, zákon o AI od nich vyžaduje, aby před nasazením vysoce rizikových systémů umělé inteligence dodržovali pokyny k používání, zajistili organizační a technickou shodu a provedli posouzení dopadu na ochranu dat.
Nedodržení právních předpisů EU o umělé inteligenci může mít za následek pokuty v rozmezí od 35 milionů EUR nebo 7 % celosvětového obratu až po 7,5 milionu EUR nebo 1,5 % obratu v závislosti na závažnosti porušení a velikosti společnosti.
Cílem evropských digitálních cílů a evropské datové strategie definované pro rok 2030 je podporovat spravedlivou hospodářskou soutěž a zvýšit transparentnost online služeb. Pro společnosti to znamená, že musí zajistit, aby jejich procesy podporovaly tyto hodnoty ochrany dat. Nedávno schválené zákony, včetně zákona o digitálních službách a zákona o digitálních trzích , zdůrazňují důležitost spravedlivé hospodářské soutěže a transparentnosti. Řešením interních procesů a jejich revizí v rané fázi se mohou poskytovatelé i uživatelé systémů AI vyhnout pokutám a zvýšit důvěru spotřebitelů. Zlepšete své procesy dodržování předpisů ještě dnes kliknutím sem a začněte.