O umělé inteligenci platí víceméně to samé, co o ohni: může to být dobrý sluha, ale velmi zlý pán. V jejím případě jde dokonce o takové zlo, které by mohlo vyhladit celé lidstvo.

„Pravděpodobnost, že do konce tohoto století jako lidstvo kvůli umělé inteligenci vyhyneme, je podle mě klidně kolem deseti procent,“ říká vědec Ondřej Bajgar pro čerstvé vydání Forbes NEXT, které je nyní v prodeji.

Bajgarova slova znějí jako sci-fi, ale nelze je brát na lehkou váhu – český vědec se věnuje výzkumu bezpečnosti umělé inteligence v Institutu budoucnosti lidstva v Oxfordu.

Forbes NEXT
Vydání Forbesu Forbes NEXT

V čem spočívá nebezpečí, o němž mluvíte?

Jádro problému je v tom, že můžeme stvořit něco daleko inteligentnějšího, než jsme sami. Nabízí se v tomto kontextu podobenství o myších.

O myších?

Představte si, že by se myší vědci snažili vyvinout umělou inteligenci, v podstatě nástroj na usnadnění života. A protože myši mají rády sýr a chodí ho krást do kuchyně, vyvinou nástroj, který by sýr obstarával za ně.

Postupně ho zdokonalují, nástroj se stává stále sofistikovanější, až jednoho dne bude dosaženo milníku – myši vytvoří umělou myš, díky které už nemusí vůbec chodit do kuchyně, kde je občas někdo klepl lopatou a zabil.

Vývoj se ale ani v tento okamžik nezastaví, kráčí pořád dál, takže z umělé myši se stane umělý člověk. Ten sýr obstará i způsobem, který by myši nikdy nenapadl: ochočí si krávu, podojí ji a z mléka udělá sýr. Nastává myší ráj!

Tuším zradu, ze které myši jásat nebudou.

Naivní myší vědci vytvořili supernástroj na donášku sýra. Dali mu úkol: Dones nám co nejvíc sýra do doupěte. Supernástroj plní zadání tak dokonale, že donese tolik sýra, že jím obyvatele doupěte umačká. Všechny myši jsou mrtvé.

Nejsou, protože supernástroj včas vypnuly.

To je jejich další naivita. Že do umělého člověka zabudovaly čudlík k vypnutí a teď ho chtějí zmáčknout? Takový člověk si přes čudlík obuje botu a myš s tím nic nenadělá.

Proč by se obouval? Je otrok myší.

Proto plní zadání sehnat co nejvíc sýra. Jestliže by byl vypnut, nebude schopen zadání plnit, to je příčinou, proč se bude vypnutí bránit. Není to tak, že by nabyl vědomí a záhadně v sobě vytvořil instinkt přežití, jak máme často sklony si představovat a interpretovat to tak. Pouze se drží úzkého cíle, z něhož ovšem pramení několik sekundárních cílů.

A to?

Neboť má motivaci shánět co nejvíc zdrojů, nechce se nechat umělá inteligence vypnout, tedy „zabít“. Dalším sekundárním cílem je, že chce sám sebe zlepšovat, čili je inteligentnější a inteligentnější. Chce mít moc nad dalšími inteligencemi, chce nashromáždit dejme tomu víc peněz, to vše mu pomůže kvalitněji dosahovat primárního cíle.

Lidé vytvářející sýr pro myši budou chtít postavit velké továrny na sýr, budou chtít zničit konkurenci, sami budou chtít mít sýrárny chráněné. Rozhodně nebudou chtít, aby je někdo vypínal.

Vydání Forbesu Forbes NEXT

Co z výše uvedeného podobenství plyne? Jak existenciální hrozbě ze strany umělé inteligence zamezit? A mohou být na její platformě stvořeny zbraně, které budou autonomně zabíjet lidi?

Ondřej Bajgar na to odpovídá v rozsáhlém interview pro aktuální vydání Forbes NEXT.