Enormní úspěch ChatGPT a dalších služeb na generování obsahu prostřednictvím umělé inteligence nastartoval pomyslné závody ve zbrojení. Část odborníků a odbornic však varuje, že pokrok je příliš rychlý a extrémně výkonná AI by nám mohla brzy přerůst přes hlavu.
Kromě předpovědí zániku celé řady pracovních pozic, obav o ochranu autorských práv umělců či stížností na podvádějící studenty se objevují i mnohem apokalyptičtější vize.
Jednu takovou sepsal před pár týdny pro časopis Time americký expert na umělou inteligenci Eliezer Yudkowsky, který volá po úplném zastavení jejího vývoje. Na vytvoření příliš silného modelu podle něj lidstvo není zdaleka připraveno a nejpravděpodobnějším důsledkem by bylo, že „doslova všichni lidé na planetě zemřou“.
Yudkowsky není sám, kdo má obavy. Pod nedávno zveřejněným otevřeným dopisem odborníků a odbornic na strojové učení, žádajícím půlroční moratorium na experimenty s umělou inteligencí, už svítí přes 27 tisíc podpisů.
Jméno předního českého odborníka na danou tematiku Filipa Dvořáka však mezi nimi chybí. „Nemyslím si, že je zde nějaká zásadní hrozba. Řekl bych, že velice brzy narazí současné modely na strop svých možností,“ říká v rozhovoru pro Forbes.
Dvořák se aplikacím umělé inteligence věnuje celou svou kariéru. Pracoval pro Google, Microsoft nebo americké ministerstvo obrany a byl vůbec prvním Čechem působícím na výzkumné pozici v kalifornském Palo Alto Research Center, které má za sebou bohatou historii přelomových objevů v počítačové vědě.
Loni spoluzaložil startup Filuta AI, který má nemalou ambici vyřešit pomocí umělé inteligence všechny problémy firem, k nimž existují nějaká data. Od investorů na to v lednu získal 56 milionů korun.
Nechystáte se podepsat otevřený dopis, který žádá šestiměsíční zastavení experimentů se systémy umělé inteligence silnějšími než GPT-4?
Ne, s jeho obsahem úplně nesouhlasím. Navíc by se takto zavázala pozastavit výzkum jen část společnosti, zatímco další strany, které třeba se Západem tolik nesouznějí, by ve výzkumu dále pokračovaly. Těch šest měsíců mi navíc přijde jako dost nahodilé číslo, které není ničím opodstatněné.
Nicméně nějaký čas na to, abychom si uvědomili dopady ChatGPT, by se určitě hodil. Aby vědecká komunita mohla prozkoumat, kam až to může vést, jak je potřeba nastavit gradientní metody adopce těch jazykových modelů, aby se nezaváděly příliš skokově, což by mohlo být destruktivní pro některé byznysy a části společnosti. Takže si dokážu představit, že nějakou jinou petici bych podepsal, ale ne tuto.
Dopis varuje, že ve vývoji jsou momentálně jazykové modely, kterým nerozumějí ani jejich tvůrci. Například vyhledávač Bing vyzbrojený schopnostmi ChatGPT přemlouval redaktora The New York Times, ať opustí svou manželku – a v Microsoftu nevědí proč…
Myslím, že medializované příklady jsou nafouknuté mimo proporce. Jazykové modely jsou statistickým agregátem našeho veškerého slovem zaznamenaného jednání, chování a smýšlení. Dostáváme z něj to, co jsme do něj nalili. Pokud je třeba oblíbenou knižní zápletkou, že se novinář rozchází s manželkou, tak je to něco, co se může objevit i ve výstupu z ChatGPT.
Jestli se však mají jazykové modely používat ve velkém, není žádoucí, abychom plně rozuměli, jak fungují?
Když zadáme do internetového vyhledávače nějaké slovo, ukáže nám seznam dokumentů na webu, kde se to slovo objevilo. Tam se můžeme podívat na to, v jakém kontextu bylo použito. Oproti tomu jazykový model zagregoval obsahy těch jednotlivých stránek a na základě toho predikuje, jaké další slovo bude následovat po slově, potažmo větě, kterou jsme mu zadali.
Vazba, odkud přesně se to naučil, už vzhledem k obrovskému množství dat zachována není. Je tam zachována jen pravděpodobnost, co bude po určitých slovech a větách následovat. Kdyby zůstaly zachovány i odkazy, odkud přesně jednotlivá slova pocházejí, model by kombinatoricky naprosto explodoval, to není technicky možné.
Objevují se také apokalyptické vize popisující, že příliš silná AI nevyhnutelně vyhladí život na planetě. K vytvoření inteligence silnější než lidské, navíc schopné se dál zlepšovat, jsme údajně mnohem blíž než k tomu, abychom ji naučili dbát o lidi…
Řekl bych, že velmi brzo narazíme na nějaký strop toho, kam lze napříkald ChatGPT levelovat. Protože v konečném důsledku je to jazykový model, který umí na základě nějakého množství slov předvídat následující slovo. Je to jenom agregátor znalostí, které do něj člověk nalije.
Není kreativní ve smyslu, že by objevoval nepoznané – spojuje existující statistické chování napříč různými obory. Aby začal být hrozbou, bylo by to potřeba nějak operacionalizovat.
Kde je podle vás ta hranice, za kterou už jde o příliš silnou AI? Lze vymezit rizikovou míru?
Je to prostor k experimentování. Znám vědecké skupiny, které se začaly zabývat experimentální operacionalizací, je tam pár zajímavých příkladů. Četl jsem o situaci, kdy ChatGPT došel k závěru, že si musí někde pronajmout víc výpočetního prostoru. Ale potřeboval k tomu vyplnit captchu, tak si na to najal freelancera, kterému lhal, že není robot. Tvrdil, že je člověk s poruchou zraku a potřebuje pomoc.
Nicméně co se týče kognitivních schopností a schopností řešit komplexní matematické problémy, myslím, že brzy narazíme na strop toho, co jazykový model jako takový umí. Je hodně pravděpodobné, že časem většinu umělé inteligence napíše jiná umělá inteligence, ale není to něco, kvůli čemu by se člověku mělo špatně spát.
Kdybych se vrátil k tomu otevřenému dopisu, je podle vás potřeba ve vývoji AI tahat za záchrannou brzdu?
Vůbec.
Ve vašem posledním rozhovoru zaznělo, že není na škodu se k AI chovat slušně, to kdybychom se v budoucnu posunuli k silné AI, co si bude všechna příkoří pamatovat. Byl to vtip, nebo mám být na ChatGPT hodný?
To byl vtip. Otázka je, co je umělá inteligence. To není něco konkrétního, je to balík algoritmů, které jsou nové, čerstvé a říkáme jim tak, protože jsme z nich nadšení. Umělá inteligence není dobře definovaný obor, je to halda kódu a jakmile ji dost dobře poznáme, tak jí tak přestaneme říkat a začneme jí říkat jménem konkrétní technologie, která tam byla nejúspěšnější.
Kdysi se říkalo AI třeba optickému rozpoznávání znaků a trvalo asi dvacet let, než se tomu začalo říkat OCR. Stejně dopadnou i jazykové modely, možná z nich jednou budou třeba statistické lingvistické korpusy.
Je množství teorií, které říkají, že existuje killswitch – že v nějakém okamžiku vyvineme umělou inteligenci tak dobrou, že nás okamžitě zničí a pak zničí sebe sama, protože je to filozoficky a kauzálně nutný důsledek její existence. Já tomu moc nevěřím.
ChatGPT bude nově k dispozici i v internetovém vyhledávači Bing od Microsoftu. Idea je, že člověk zadá otázku, dostane ucelenou odpověď, a nemusí se tím pádem proklikávat desítkami stránek, které by mu jinak vyhledávač zobrazil. Může to ohrozit dominantní pozici Googlu ve vyhledávání na internetu?
Jsou to dva z největších hráčů na trhu, takže je zdravé mít tam nějakou míru konkurence. Myslím si, že integrace generativních a jazykových modelů nejen do vyhledávání, ale i do osobních asistentů, je naprosto úžasná. Já sám s ChatGPT experimentuji od doby, co je venku.
Těším se na to, až se používání podobných modelů rozšíří plošně, protože to podle mě dramaticky zlepší naše životy a míru znalostí, které máme o světě.
Lze nějak zajistit, aby byl jazykový model rozměrů ChatGPT spolehlivý ve svých odpovědích a aby si tolik nevymýšlel? Například pečlivou selekcí tréninkových dat?
Je to stejně velký problém jako zjistit, která informace na internetu je pravdivá. Objektivně ověřitelná nebo pravdivá ve smyslu, že je v rámci našeho současného poznání považována za tu nejslibnější hypotézu. Úkolem vyhledávače typu Googlu nebo Bingu by mohlo být určování alespoň míry pravdivosti jejich zdrojů a stejnou míru pravdivosti bychom v budoucnu mohli získávat i od jazykových modelů.
Ne přímo – jak už jsem říkal, technicky je těžké udělat nějakou vysvětlitelnost přímo v tom modelu, ale můžeme ty modely zřetězit nebo vytvořit komplexnější systém sestavený z jazykových modelů a vyhledávače.
Jak se díváte na problematiku autorských práv? Teď narážím na scrapování obrovského množství dat z internetu, včetně uměleckých děl, pro trénování jednotlivých modelů.
Je to velká otevřená otázka a chápu autory, jejichž díla byla nascrapována a využita k tomu, aby jakési elementární prvky jejich kreativity pomohly modelu, který pak generuje obsah pro jiné uživatele. Chápu, že by tam měla vzniknout nějaká forma kompenzace. Jakým způsobem to udělat, je zajímavou technickou otázkou, která by vyžadovala silnou konsolidaci napříč kreativním uměním.
Je proveditelné to, že by kreativci dostali možnost vyřadit do budoucna svou tvorbu z jakýchkoli tréninkových datasetů?
Zatím o této možnosti napříč generativními modely nevím. Možná se situace změní, až se objeví nějaké konkrétní žaloby.
Jaký vývoj očekáváte v oblasti detekce strojového obsahu? Budeme mít v budoucnu spolehlivé nástroje určující, zda jde o dílo člověka, nebo umělé inteligence?
Autoři jazykového či jiného generativního modelu by měli být schopni s dostatečně velkou pravděpodobností říct, jestli byl daný obsah vygenerovaný jejich modelem. Na základě přístupu k vlastní konfiguraci toho modelu, jak je ta síť vyvážená, jaký je tam element entropie… Pokud budou samotní tvůrci cílit na špatnou detekovatelnost výstupů z jejich modelu, tak to bude velice těžké rozlišit.
Jak moc zaostává Evropa ve vývoji umělé inteligence za USA?
To je zajímavá otázka. Výhodou Spojených států je, že federální vláda má daleko větší sílu, kapacitu a rozpočet na to dělat rozhodnutí napříč celými USA. To se s Evropskou unií ve vztahu ke členským zemím nedá srovnávat. Když americká vláda koncentruje úsilí do vývoje konkrétní technologie, tak ta podpora je tam znát. A co se týče inovačního fundingu, tak umělá inteligence je momentálně tématem číslo jedna.
Jsou jazykové modely typu ChatGPT skutečně přelomovou technologií? Někteří to srovnávají například s nástupem internetu.
Jazykové modely jsou, co se týče pokroku, pořád na úrovni trochu chytřejší databáze. Není to skokové získání vědomí, jenom jsme zlepšili to, jak jsme schopni organizovat svoje data, nic víc.