Rozpoznávání obličeje, hodnocení emocí nebo předvídání kriminálního chování. To je jen zlomek kritizovaných technologií umělé inteligence, které chce Evropská unie regulovat.

Pokud by se podařilo prosadit takzvaný Akt o umělé inteligenci, šlo by o vůbec první pravidla pro používání umělé inteligence ve světě. Návrh legislativy schválily minulý týden výbory v rámci Evropského parlamentu.

Motivací je především ochrana před možnými škodlivými dopady umělé inteligence (artificial intelligence, zkráceně AI) a zneužitím nových technologií na její bázi. Zároveň má legislativa chránit osobní údaje a zajistit transparentnost využívání umělé inteligence.

Základním požadavkem bude, aby na ni vždy dohlížel člověk a aby nikoho nediskriminovala. „Cílem je zabránit například tomu, aby umělá inteligence řídila dodávku plynu do obytné zóny bez možného zásahu člověka. Zakazuje se také používat manipulativní techniky o ovlivňování zranitelných skupin obyvatel,“ vysvětluje Jakub Dohnal, advokát a řídící partner advokátní kanceláře Arrows.

Nároky podle něj budou kladeny primárně na poskytovatele dotčených nástrojů. „Budou například existovat pravidla pro použití AI při řízení firem, výběru zaměstnanců a jejich hodnocení. Regulace tedy v konečném důsledku dopadne na nás všechny,“ konstatuje Dohnal.

Navrhovaná úprava třídí umělou inteligenci do tří kategorií podle rizika. Regulace má dopadnout právě na nejrizikovější technologie, například systémy, identifikující osoby na základě biometrických údajů nebo algoritmy hodnotící důvěryhodnost. Za varovný příklad nejčastěji slouží „skóre občana“ používané v Číně.

„Obecně budou nepřijatelné systémy, které využívají podprahové, manipulativní nebo podvodné techniky. Ty budou přímo zakázané,“ zdůrazňuje Dohnal. „Další kategorií je například řízení dopravy. To bude mít nejpřísnější nároky jako například kontrolovatelné řízení systému rizik. Poslední kategorií jsou méně rizikové systémy, které vystačí s registrací,“ popisuje.

Akt také stanovuje požadavky na transparentnost a odpovědnost poskytovatelů AI systémů. Firmy budou muset dodržovat přísná pravidla týkající se sběru, zpracování a uchovávání dat a dále zajistit, aby byly jejich algoritmy spravedlivé a nediskriminační.

Společnosti budou zároveň muset informovat o tom, že jednáte s umělou inteligencí. V plánu je navíc zřízení nezávislého evropského orgánu pro umělou inteligenci, který bude mít za úkol dohlížet na dodržování pravidel a provádět audity AI technologií.

O návrhu bude v polovině června diskutovat Evropský parlament, a v případě schválení musí norma ještě projít jednáním v Radě Evropské unie. O regulace se v současné době snaží například i Brazílie nebo zmíněná Čína. Právě evropská regulace by se však podle odborné veřejnosti mohla stát celosvětovým standardem – podobně, jako tomu bylo s úpravou ochrany osobních údajů, takzvaným GDPR.

Jakub Dohnal připomíná, že firmy působící po celé Evropě se musí s Evropskou legislativou a jejími nároky chtě nechtě popasovat. „I když jsou regulační nároky v některých jurisdikcích méně striktní, korporace zavádějí ty nejpřísnější světové standardy. A ty jsou dost často evropské. Tyto společnosti jsou pak připravené pro celý svět. Když splní nároky Evropské unie, splní i méně přísné africké regulace,“ vysvětluje právník.

Ovládni AI!
Vydání Forbesu Ovládni AI!

Zatímco jiné hlasy připomínají etické hledisko a hrozby umělé inteligence, Dohnal se obává ztráty konkurenceschopnosti, která by mohla z přísnosti regulací plynout. „Některé dynamické jazykové modely mají původ v Evropě, ale nápad se zpeněžil v Americe. A první, co pak v Evropě uděláme, je regulace,“ říká právník.

„Měli bychom spíše podporovat rozvoj a investice v této oblasti než ji regulovat,“ tvrdí a připomíná, že kvůli legislativnímu omezení GDPR je aktuálně v Evropě nedostupný jazykový model BARD od Googlu. Podle analýzy Centra pro datové inovace, neziskové organizace zaměřené na inovace, by regulace umělé inteligence stála Unii jen v příštích pěti letech 31 miliard eur a snížila investice do umělé inteligence o téměř dvacet procent.

Podle jiné analýzy autorek Meeri Haataji a Joanny Bryson však budou dopady mírnější, protože plánovaná legislativa se převážně vztahuje na malou část technologií umělé inteligence – pouze ty nejrizikovější.