Elon Musk, Stephen Hawking a Bill Gates. Ti všichni už varovali, že rychle se rozvíjející umělá inteligence může mít fatální důsledky pro naši společnost i samotnou existenci lidské rasy. Jejich obavy tak zvýšily kredit příběhům odvozovaných ze sci-fi knih a filmů typu Terminátor a Já, Robot o tom, že lidské výtvory změní svět, jak ho známe, pokud nad nimi ztratíme kontrolu. Vědci z Georgia Institute of Technology však věří, že existuje způsob, jak umělou inteligenci zlidštit, aby pak neusilovala o naše vyvraždění. Stačí jediné – číst jim pohádky.
Nedávná vědecká esej výzkumníků Marka Riedla a Brenta Harrisona ukazuje, že mýty a lidové příběhy mohou bytosti s umělou inteligencí poučit o lidských zvyklostech a konvencích, o chápání dobra a zla, stejně jako učí chápat tyto základy morálky malé děti.
Fiktivní příběhy ve všech kulturách nabízejí plošně použitelné návody, jak se chovat v určitých situacích. Vysvětlují také myšlenkové procesy člověka. Existují stovky příběhů, které názorně ukazují rozdíl mezi dobrým a špatným chováním. Čtením těchto pohádek se podle vědců mohou roboti naučit správný způsob, jak se chovat v nekonečném množství situací lépe, než z naprogramovaných scénářů. „Sebrané příběhy různých kultur učí děti, jak se chovat v sociálně přijatelné podobě, a jak se rozhodně nechovat,“ řekl Riedl pro server quartz.com. „Věříme, že když roboti porozumí našim příběhům, může se eliminovat sociálně vadné chování a posilovat rozhodnutí, která neublíží lidem a pomohou zamýšlenému účelu.“
Čtěte také: Jak naučit roboty dělat složité úkoly? Hrát si s nimi jako s dětmi
Roboti se mohou naučit žít v souladu s lidskými normami, tvrdí studie, a to prostřednictvím tzv. metody „Quixote“, která učí umělou inteligenci číst příběhy, které ukazují lidské hodnoty a odměňuje je pak za „dobré“ chování. Technika je založená na existujícím výzkumu „Scheherazade“ vytvořeným Riedlem. Jedná se o systém, který ukazuje, jak umělá inteligence může díky internetu úspěšně spojit dohromady určitý sled informací a správně je vyhodnotit. Quixote pak používá během testování odměňující signál, který přirozeně posiluje dobré chování a trestá to špatné. Spojením těchto dvou metod pak je možné naučit roboty hledat vzory chování v příbězích, o kterých se píše výše.
V jednom testu řekli výzkumníci robotu, aby vyzvedl léky v lékárně a vrátil se domů. Bez chápání lidských norem, že léky stojí peníze a krást je špatné, mohl by se robot rozhodnout vyloupit lékárnu, aby co nejrychleji dokončil úkol. Ale když se v jednom scénáři robot naučil skrze čtení příběhů ty správné hodnoty, bylo pro něj v pořádku jít do banky vybrat peníze k nákupu potřebných medikamentů. V tomto případě pozitivní posílení chování ke správnému nákupu přebíjí negativní reakci na to, že dokončení úkolu trvá déle. Studie přiznává, že popsaná metoda funguje nejlépe s roboty, kteří mají omezené funkce a musí spolupracovat s lidmi k dosažení cílů. „Je to ale každopádně důležitý první krok při předávání morálky robotům,“ dodal Riedl.
Samozřejmě, jestliže roboty můžeme naučit správné chování, můžou se naučit i chování špatné. „Není možné zabránit všem negativním dopadům na lidské bytosti,“ tvrdí studie, „ale věříme, že umělá inteligence, která přijala hodnoty společnosti a kultury bude usilovat o to, aby se vyhnula jakémukoliv psychopatickému chování i za těch nejextrémnějších podmínek.“