Přední společnosti zabývající se umělou inteligencí se snaží svým chatbotům dodat osobnost. OpenAI, Google a Anthropic za tímto účelem vytvořily celé týmy zaměřené na zlepšování „chování modelů“, uvedl server listu Financial Times.

Nově vznikající oblast může být podle Financial Times určující pro to, jak budou chatboti a velké jazykové modely působit na uživatele. Rozdílné přístupy k chování modelů mohou rozhodnout o tom, který produkt si uživatelé nakonec vyberou a která společnost ovládne rozvíjející se trh. Firmy se například snaží, aby jejich model byl „milý“ a „zábavný“, ale zároveň se držel v mantinelech pravidel, aby se předešlo škodám nebo protizákonnému jednání.

Například osobnost nejpopulárnějšího chatbota ChatGPT společnosti OpenAI se neustále vyvíjí. „K tématu chování modelů jsem se na začátku dostala díky tomu, že osobnost ChatGPT působila hodně otravně,“ uvedla Joanne Jang, která v OpenAI vede oddělení zaměřené na trénink osobnosti modelů.

„Dříve odmítal příkazy, byl extrémně nedůtklivý, přepjatý nebo poučující, proto jsme se snažili odstranit otravné části a naučit ho některé veselé aspekty, jako že by měl být milý, zdvořilý, vstřícný a přátelský, ale pak jsme si uvědomili, že jakmile jsme se ho pokusili takto vycvičit, model byl možná až příliš přátelský,“ dodala.

„Dobrý model vyvažuje respekt k lidské autonomii se schopností rozhodovat se, nedělá nic strašně škodlivého, ale zároveň přemýšlí o tom, co je pro lidi skutečně dobré, a nepřebírá jen bezprostřední slova popisující to, co lidé říkají, že chtějí,“ řekla Financial Times Amanda Askell, která vede trénink osobnosti ve společnosti Anthropic vyvíjející modely Claude.

Anthropic rozjel trénink osobnosti v březnu, kdy vydal model Claude 3. Proces probíhá po počátečním datovém tréninku jazykového modelu. Podle společnosti ho „mění z prediktivního textového modelu v asistenta AI“.

ChatGPT od OpenAI byl instruován, aby „zaujal objektivní stanovisko“. Naopak Anthropic považuje snahu o objektivitu za slepou uličku. „Chtěla bych raději jasně říct, že tyto modely nejsou neutrálními arbitry,“ zdůraznila Askell. Podle ní byl Claude navržen tak, aby byl upřímný ohledně svých přesvědčení a zároveň otevřený jiným názorům.