Už dlouho žádná zpráva okolo umělé inteligence neudělala takové vlny, jako otevřený dopis Pozastavte obří experimenty s umělou inteligencí.

A kdo ví, kdyby jej nepodepsaly celebrity jako spoluzakladatel Applu Steve Wozniak, spoluzakladatel Skypu Jaan Tallinn nebo dokonce Elon Musk, možná bychom se mu jen zasmáli.

Když ale slyšíme bít na poplach technokraty, a dokonce i některé jednotlivce přímo z oboru umělé inteligence, možná je to důvod ke skutečnému zamyšlení. Nebo ne?

Mimochodem, tuto výzvu publikovanou neziskovou organizací Future of Life Institute podepsalo také několik Čechů. Nalezneme mezi nimi Petra Baudiše z Rossumu, Víta Janiše z brněnské Mendelovy univerzity nebo Vítězslava Kalu z Matematicko-fyzikální fakulty Univerzity Karlovy.

„Tempo vývoje umělé inteligence je v současné době něco, co děsí i mě. I když jsem se existenčních rizik obecné umělé inteligence nijak zvlášť neobával. Společnost potřebuje alespoň trochu času na adaptaci. Půl roku navíc dá běžné populaci nějaký čas, aby zažila a vstřebala dopad GPT-4 v praxi, a věřím, že nějaký dopad bude,“ odpovídá Forbesu Petr Baudiš z platformy Rossum, která využívá umělou inteligenci k efektivní extrakci dat z digitálních dokumentů.

Co přesně účastníkům iniciativy vadí? V dopise, který je natolik obecný, že by jej klidně mohl hypoteticky vytvořit ChatGPT nebo Google Bard, se dočteme, že systémy umělé inteligence s inteligencí konkurující té lidské by mohly představovat velké riziko pro společnost a potažmo obecně pro lidstvo.

Iniciátoři proto vyzývají všechny laboratoře zkoumající a trénující umělou inteligenci, aby minimálně na šest měsíců pozastavily další vývoj a trénování systémů umělé inteligence se schopnostmi, které přesahují možnosti jazykového modelu GPT-4, který pohání poslední generaci populárního generativního chatbota ChatGPT.

„Nevím přesně, co se stane, ale mohou například přestat fungovat spamové filtry, sociální sítě, internet zaplaví od reality nerozpoznatelný deep fake, nastane krize žurnalistiky? Při šestiměsíční pauze by vznikl prostor pro občany, aby si každý udělal názor a vyjádřil, jak chce a jak nechce, aby se společnost s rozvojem AI měnila a přizpůsobovala,“ dodává Baudiš.

Dopis přitom volá po veřejné a ověřitelné akci, při níž by neměl chybět nikdo důležitý z oboru a v případě nutnosti by měli zasáhnout politici a zavést na vládní úrovni moratorium.

„Začal jsem se obávat vládní regulace v budoucnosti. Pokud obor umělé inteligence neudělá nějaké kroky, aby se sám hlídal, zvyšuje to riziko tvrdé vládní regulace, která příliš přestřelí a hodně poškodí vývoj, jako se to stalo například v jaderné energetice,“ doplňuje k tomu Baudiš.

Co s takto získaným časem? V tom by měla vzniknout sada opatření, která by další vývoj pokročilých AI systémů hlídala a omezovala. Jinými slovy regulace. Tahle by ale nepřicházela na politickou objednávku, ale od (údajně) nezávislých odborníků.

Na tu oficiální by ale mělo dojít také, zákonodárci by měli přijmout pravidla pro regulaci, která by zahrnovala kontinuální sledování AI systémů a vůbec velkých zdrojů výpočetního výkonu, systémy pro označování a rozlišování původu výstupů, které rozliší ty strojové od lidských, nové dohledové orgány a ještě další opatření.

Pokud by na takovou regulaci skutečně došlo, ukázala by se jako celkem prozíravá Evropská unie, která se na regulaci systémů strojového učení a umělé inteligence připravuje už od roku 2021.

„Stejné prvky a techniky, které jsou motorem socioekonomických přínosů umělé inteligence, mohou rovněž přinášet nová rizika nebo negativní důsledky pro jednotlivce nebo pro společnost. S ohledem na rychlost technologických změn a na potenciální výzvy je Evropská unie odhodlána usilovat o vyvážený přístup,“ píše se v evropském návrhu.

Evropská regulace se ale ubírá ještě trochu jiným směrem, než jaký by si přáli autoři dopisu. Vedle standardizace použití AI na evropském trhu se snaží zamezit tomu, aby šlo umělou inteligenci v Evropě legálně využívat k vykořisťování, sociální kontrole, obecně ovlivňování lidského chování a samozřejmě – bez toho by to nebyla Evropská unie – k ochraně soukromí.

„Mělo by být zakázáno uvádění na trh, uvádění do provozu nebo využívání systémů umělé inteligence určených k ovlivňování lidského chování, které by mohly způsobit fyzickou nebo psychickou újmu,“ píše se například v evropském návrhu.

Jedním z možných využití umělé inteligence, kterým se snaží unie zabránit, je sledování a vyhodnocování obyvatelstva a jeho chování. „Systémy umělé inteligence provádějící hodnocení sociálního kreditu fyzických osob pro obecné účely ze strany veřejných orgánů nebo jejich jménem mohou vést k diskriminačním výsledkům a k vyloučení určitých skupin,“ uvádí se na jiném místě.

„Sociální kredit získaný na základě těchto systémů umělé inteligence může vést ke znevýhodňujícímu nebo nepříznivému zacházení s fyzickými osobami nebo s celými skupinami těchto osob v sociálních kontextech nesouvisejících s kontextem, ve kterém byly dané údaje původně vytvořeny nebo shromážděny,“ píše se dál.

Návrh také mluví o tom, že využívání umělé inteligence pro biometrickou identifikaci fyzických osob na dálku a v reálném čase na veřejně přístupných místech, byť pro účely prosazování práva, je příliš rušivým zásahem do práv a svobod dotčených osob, neboť může ovlivnit soukromý život velké části populace.

Je však nepravděpodobné, že zmíněný otevřený dopis nebo chystaná evropská regulace změní něco na současných závodech ve zbrojení na poli umělé inteligence, ať již ze strany technologických hráčů na vrcholu potravního řetězce, jako je IBM, běžnému uživateli bližších společností, jako jsou Google nebo Microsoft, či miriády menších AI laboratoří. Na to je ve hře příliš mnoho peněz a příliš silné emoce.

Je ale možné, že v budoucnu bude svět rozdělen na různě bezpečné zóny, alespoň co se týče umělé inteligence. Škála by mohla sahat od bezpečného pískoviště Evropské unie přes benevolentnější, a tím pádem v technologii pokročilejší Spojené státy až po divokou asijskou džungli, kde buď přechytračíte umělou inteligenci, nebo ona vás.

Tak či tak, možná nastal čas část investic do vývoje algoritmů a trénování ještě pokročilejších modelů strojového učení vložit také do vzdělávání a pochopení toho, jak technologie, které se již nezbavíme, funguje. A také toho, jak ji nejlépe vytěžit pro kvalitnější život. Když to totiž neuděláme, vytěží jen ona nás.