Jak vznikal vůbec vůbec první ucelený soubor zákonů na světě upravující využívání umělé inteligence, tedy Akt o umělé inteligenci z dílny Evropské unie? Své o tom ví profesor Mark Coeckelbergh, který na něm pracoval od roku 2018 jako člen expertní skupiny. Dnes AI akt považuje i přes jeho znatelné mezery za „dobrý začátek“, ale zároveň zpochybňuje způsob, jakým vznikal.

Finální text europoslanci schválili na konci loňského roku a firmy a úřady mají teď dva roky na to, aby se připravily, než začne být regulace plně závazná.

Před více než šesti lety na začátku tohoto procesu stála a dva roky pracovala takzvaná High Level Expert Group on AI (skupina odborníků pro umělou inteligenci), jejíž součástí byl i Mark Coeckelbergh, filozof technologií, profesor Vídeňské univerzity a vedoucí výzkumník Centra pro environmentální a technologickou etiku při Filosofickém ústavu Akademie věd ČR.

Od té doby šla umělá inteligence závratně dopředu a AI akt je tak podle profesora Coeckelbergha „v něčem příliš zatížený a v něčem příliš smírný“. Přelomová regulace dělí AI systémy na ty s minimálním, specifickým, vysokým a nepřijatelným rizikem. Posuzuje také jejich důvěryhodnost a transparentnost. A podle toho je pomocí nových zákonů svazuje.

Za jeho porušení mají padat vysoké pokuty. „Mám ale pocit, že mnohé společnosti si stejně budou dělat, co chtějí,“ komentuje Mark Coeckelbergh. Podle něj má totiž AI akt znatelné mezery. Zároveň ale tvrdí, že je to dobrý začátek toho, jak by se k AI mělo přistupovat.

Dodává však, že je třeba řešit AI z globální, nikoli lokální perspektivy. Její etické dopady jsou totiž univerzální. A pokud se to včas nepodaří, může to mít podle profesora Coeckelbergha rozsáhlé následky. „Myslím, že hrozí, že lidé se postaví k AI zády,“ tvrdí.

Navíc celý svět letos čeká supervolební rok. „Už v tuto chvíli má umělá inteligence moc manipulovat chování voličů,“ komentuje profesor Coeckelbergh, podle kterého používání AI na politickém poli není dostatečně regulováno. „Čeká nás v téhle oblasti letos hodně skandálů,“ myslí si.

Kdy jste naposled využil AI?

Před pár dny jsem použil chat GPT k hledání informací. Ty jsem ale pak pro jistotu zkontroloval. Jako zdroj informací se sice zlepšuje, ale ještě není dost dobrý. Kolem mnoha těchto technologií je přehnaný humbuk, ale to je záměr.

Záměr?

Ano, aby dostali investice, aby měli více zákazníků a tím i více dat. Neznamená to, že jsou ty technologie tak dobré, jak říkají. Vždy se setkáváme s rozdílem mezi očekáváním a realitou. A vztah, který si i díky tomu k AI budujeme, není zdravý.

Jak to myslíte?

Například to, že máte pocit, že s někým komunikujete. Začnete si k umělé inteligenci budovat vztah a důvěřovat jí.

A to samé se nedá říct o Googlu jakožto vyhledávači informací?

Není to to samé. Způsob prezentace i interakce jsou jiné. To zdánlivá konverzace může vyvolávat mylnou představu a důvěru.

Byl jste součástí expertních poradců v rámci tvorby evropského AI aktu, povězte nám o tom…

Skupina fungovala dva roky, konkrétně mezi lety 2018 a 2020. Byli tam akademici a lidé z různých průmyslů. Byl to mix lidí, kteří měli politickou agendu a pak lidí, jako jsem já, kteří se snažili koukat na problematické záležitosti a jejichž cílem je všeobecné blaho. 

Jak to tedy probíhalo? 

Výstupem naší práce byl komplexní soubor informací. Politici ho ale nemuseli brát v potaz. A nakonec také udělali něco jiného. Popravdě tento proces nebyl dostatečně transparentní. Trialogová jednání (neformální jednání o legislativních návrzích, na kterém se scházejí zástupci Evropského parlamentu, Rady Evropské unie a Evropské komise, pozn. redakce) probíhala pouze v určitých politických kruzích v kontextu Evropského parlamentu.

Tou dobou už do toho nezasahovali lidé jako já, ale ani občané. Takže jsem popravdě zpochybňoval demokratické pozadí AI aktu a analyzuji to ve své knize „Why AI Undermines Democracy and What To Do About It“. Zamýšlím se v ní nad tím, jak mít správu umělé inteligence více demokratickou.

A jak?

No, to má více vrstev. Je třeba učinit instituce více demokratické. Mnoho toho, co se děje, se děje v těch společenských kruzích, kam nedohlédneme. Za to může politika, protože přímo nezapojuje své občany. Měli bychom se zaměřit na demokratizaci institucí a lépe kombinovat expertizu například ohledně nových technologií.

Popište mi více demokratizaci institucí…

No, vezměte si například parlament, to je poměrně staromódní instituce z 19. století. Není adaptovaný na moderní dobu, kdy jsme obklopeni rychle se vyvíjejícími technologiemi. 

Podle vás by se tedy společnost měla více podílet na vývoji technologií?

Ano, měli bychom se na tom podílet a být schopni do toho zasahovat. Chceme, aby to někde v ústraní dělaly pouze „big-tech“ společnosti? Myslím, že bychom do toho minimálně měli být schopni zasáhnout na úrovni veřejných zájmů. Hnací silou by mělo být všeobecné blaho a ne soukromé zájmy. Společnosti tvrdí, že zohledňují etiku, ovšem zároveň musejí vykazovat růst u svých akcionářů a lákat nové investory. Tuším, že etika v popředí rozhodně není. Celý proces je vysoce netransparentní.

A co AI akt jako takový. Nebude zastarávat v porovnání s vývojem nových technologií?

AI akt je nyní takzvaně adoptovaný, ale bude to trvat další dva roky než budou všechna pravidla fungovat. Mluvíme tedy o roce 2026, což bude ve skutečnosti celých osm let potom, co naše expertní skupina začala svou dvouletou práci. 

A během osmi let se událo mnohé…

Ano a časem proběhly i nějaké úpravy. Ale bylo by bývalo dobré samozřejmě uvažovat o generativní umělé inteligenci dříve a hlouběji než rovnou rychle vytvářet pravidla. Vývoj jde dopředu strašně rychle. A proto si myslím, že pravidla a regulace nejsou dost. Měli bychom být schopni se zapojit napřímo do vývoje technologií a rozhodování o nich. Ale musí to být rychlejší, jinak nám ujede vlak.

Těžko lze také předvídat efekt takových pravidel a regulací…

Je to tak. Může se stát, že díky regulaci tu budeme mít lepší svět. Ale také můžeme zjistit, že má mezery a že ji velké společnosti začnou snadno obcházet. I když za tím je osm let práce, nikdy nevíme, jak to bude fungovat. Chceme respektovat iniciativu a kreativitu, ale zároveň se ujistit, že vše probíhá eticky a demokraticky. 

Jaký zatím pozorujete efekt?

Tenzi. Když na tom ale budeme stále pracovat, myslím, že se dostaneme do situace, kdy vydělají všichni. Problém je, že na byznys, inovace a mnohá rozhodnutí, která se v současnosti dělají, nahlížíme pouze z krátkodobé perspektivy a rychlých zisků. Zapomínáme na dlouhodobé dopady. Z hlediska inovace technologií by se průmysl a společnost měly protnout tak, aby měly z dlouhodobého hlediska co nejprospěšnější efekt. 

Vydělají tedy na AI aktu všichni?

Záleží na to, co ukáže budoucnost. Nejsem si jistý. Mám pocit, že mnohé společnosti si stejně budou dělat, co chtějí. Bylo by lepší, kdyby regulace byla efektivnější a společnosti nemohly využívat mezer v zákoně tak jednoduše. Zároveň by se ale měl udělat dostatek prostoru pro inovace. V něčem je AI akt příliš zatížený a v něčem příliš smírný. Mělo by se dále pracovat na tom, aby se etika AI aktu byla aplikovatelná globálně.

Je etika univerzální?

Absolutně. Chtěl bych, aby AI měla jednotná pravidla a regulaci na globální úrovni. Když máte globální problém, pak je třeba mít globální řešení. Podobně, jako se shodneme ohledně nukleárních zbraní a jak bychom se měli dohodnout i na globálním oteplování. Tak aby občané a uživatelé mohli mít pocit jistoty a že se mohou o něco opřít.

Je to možné? Není to utopie?

Mnozí by řekli, že je to utopie a ukazují na nevyřešené geopolitické konflikty a jak je těžké shodnout se na jedné věci. Já jsem ale optimista. Například po druhé světové válce jsme zakládali mezinárodní organizace. Samotná Evropská unie je nadnárodní organizace, je možné najít balanc. Globální oteplování a AI… to jsou dvě velká témata, který bychom opravdu měli řešit z globální perspektivy. 

A když ne?

Myslím, že hrozí, že lidé se postaví k AI zády.

Tento rok nás čeká supervolební rok. Co nás z hlediska technologií čeká?

Už v tuto chvíli má AI moc manipulovat chování voličů. Data sbíraná ze sociálních médií jsou analyzována a použita během voleb. Myslím, že nás letos čeká v této oblasti hodně skandálů.

Jak v tomto může do budoucna pomoci AI akt?

AI akt tomu zatím asi zabránit nezvládne. Ačkoli v zákoně o AI o tom existují některé relevantní předpisy, používání AI na politickém poli není dostatečně regulováno.

Jak tedy hodnotíte AI akt jako celek?

Je to docela dobrý začátek, jak k umělé inteligenci přistupovat. Například GDPR má ohlas ve světě, věřím, že i na AI akt budou ostatní země v Evropě dobře reagovat. 

Čína, USA a Evropská unie mají velmi rozdílná pravidla na používá AI. Jak docílit toho, aby byla univerzální?

Jde o to, najít harmonii mezi soukromými iniciativami a vládní regulací. Čína je často vnímána jako záporák. Ale je to země, která dokáže hledět do budoucna a podle toho plánovat svou ekonomii. Neříkám, že bychom měli regulovat stejným způsobem jako Čína, ale musíte mít politickou a ekonomickou vizi budoucnosti. Evropa má dobré předpoklady k nalezení rovnováhy hodnot. Inovace a zodpovědnost mohou jít ruku v ruce. Neříkám rovnou sloučit a namixovat všechna pravidla a regulace, ale Evropa je dobře umístěna k tomu najít balanc hodnot. 

Centrum pro environmentální a technologickou etiku – Praha
  • Centrum pro environmentální a technologickou etiku – Praha (CETE-P) je nové a zároveň první české pracoviště zabývající se systematickým výzkumem etických problémů spojených se změnou klimatu, vývojem umělé inteligence a nových technologií.
  • Na jeho rozvoji se podílí světový odborník na danou problematiku Mark Coeckelbergh z Vídeňské univerzity.
  • Centrum si klade za cíl nabídnout odborné poradenství orgánům české státní správy a pomoci při rozvoji potřebných veřejných politik ve zmíněných oblastech.
  • Zároveň chce přispět k informované veřejné diskusi a více do ní vtáhnout občany. CETE-P, fungující při Filosofickém ústavu AV ČR, vzniklo na začátku roku 2023 díky prestižnímu evropskému grantu Horizon Europe.