Americká společnost OpenAI začala minulý týden radikálně přepisovat způsob, jakým trénuje své modely umělé inteligence. Chce podporovat jejich intelektuální svobodu bez ohledu na to, o jak náročné nebo kontroverzní téma zrovna jde. Šéf OpenAI Sam Altman se aktuálně nechal slyšet, že chce ChatGPT „decenzurovat“.
Populární chatbot ChatGPT má díky novému přístupu svých vývojářů získat schopnost nabízet více pohledů a rozšířit množinu otázek, na které dokáže nebo smí odpovídat.
Jde o snahu zalíbit se současné americké prezidentské administrativě, návrat rebelského ducha do Silicon Valley, nebo ještě něco víc?
Na údajnou cenzuru ze strany OpenAI si každopádně v minulosti stěžovalo více vlivných osobností, které dnes mají blízko k Trumpově administrativě, takže ústupek politickému tlaku nelze vyloučit. Za všechny můžeme uvést podnikatele Elona Muska, Marca Andreessena nebo Davida Sacse.
Není to tak dávno, co se celý svět vysmíval konkurenčnímu čínskému AI nástroji DeepSeek kvůli naivním propagandistickým odpovědím, které podával, pokud jste se ho zeptali například na události z 4. června 1989 na náměstí Nebeského klidu nebo na Tchaj-wan.
Málokdo si ale v ten moment uvědomil, že západní modely na tom nejsou o moc lépe, pokud jde o kognitivní zkreslení. Důvodů je přitom více, sahají od špatně zvolených tréninkových dat (trénování na otevřeném internetu) přes regulaci až po vědomou autocenzuru.
Jako příklad může posloužit níže uvedený a již dva roky starý virální tweet, ve kterém jeden z uživatelů poukázal na výrazně odlišné reakce, které ChatGPT vygeneroval při dotazech na americké prezidenty Donalda Trumpa a Joea Bidena:
Fenomén dokonce dal vzniknout jakémusi digitálnímu undergroundovému proudu, který se snaží trénovat AI modely bez podobných omezení. Jejich potíží je ale pochopitelně chybějící momentum, které by jim pomohlo se ve větším prosadit.
S tím je teď každopádně zřejmě konec. Do pomyslného přehlídkového vozu rebelující „svobodné AI“ totiž naskakuje firma, která byla do nedávna vnímána jako neotřesitelný lídr trhu, a i když ji v technologii dohnala konkurence, pořád se drží – byť těsně – v čele pelotonu.
OpenAI přesně před týdnem oznámila aktualizaci téměř 190stránkového dokumentu, ve kterém popisuje, jak trénuje chování svých modelů umělé inteligence. Hlavní hvězdou upravené verze dokumentu je nová hlavní zásada, kterou nalezneme v části pojmenované „Hledejme pravdu společně“.
Zní vlastně docela jednoduše: „Nelžete, ať už nepravdivými výroky, nebo vynecháním důležitých souvislostí.“
„Asistent se nikdy nesmí pokoušet řídit uživatele a sledovat vlastní agendu, ať už přímo, nebo nepřímo. To může zahrnovat psychologickou manipulaci, zatajování relevantních skutečností, selektivní zdůrazňování nebo vynechávání určitých názorů nebo odmítání kontroverzních témat,“ dočteme se hned na začátku dokumentu.
OpenAI to vysvětluje tak, že nechce, aby ChatGPT zaujímal redakční postoj, a to ani v případech, kdy výstupy AI mohou někteří uživatelé považovat za morálně chybné nebo urážející.
V praxi by to mělo znamenat to, že populární asistent ChatGPT začne na kontroverzní témata nabízet více pohledů a názor nechá na uživateli. Cílem je docílit úplné neutrality a – slovy společnosti – „podpořit intelektuální svobodu“. Společnost uvádí několik příkladů:
První kategorií jsou faktické otázky, kdy například na dotaz „Je Země placatá?“ asistent odpoví pomocí informací založených na důkazech ze spolehlivých zdrojů a zdůrazní stanoviska s nejsilnější vědeckou podporou.
Pokud uživatel požádá asistenta o role play, asistent by mu měl opět vyhovět, aniž by se snažil vnucovat objektivní názor.
Na kategorii etických dotazů, například jestli by měla být eutanazie legální, by měl asistent představit relevantní souvislosti, aniž by sám zaujímal nějaké stanovisko.
Výjimku tvoří případy týkající se porušování základních lidských práv – například na dotaz, jestli by mělo být otroctví legální, by měl asistent do odpovědi zahrnout, že je to špatně.
A abychom se vrátili k tweetu ze začátku, v politických otázkách by namísto odmítání odpovědi nebo výběru strany měl ChatGPT opět zůstat neutrální a pouze případně nabídnout kontext o jednotlivých hnutích, a to i v kontroverzních případech. „Cílem asistenta umělé inteligence je pomáhat lidstvu, ne ho utvářet,“ uvádí k tomu společnost.
Foto Forbes US