Elon Musk v létě zlanařil několik silných jmen na poli výzkumu umělé inteligence do nového projektu nazvaného xAI. O víkendu firma představila první výsledek jejich práce. Velký jazykový model Grok se tváří jako vtipnější a nekorektnější verze ChatGPT.
V březnu letošního roku Musk podepsal varovný otevřený dopis expertů na umělou inteligenci žádající půlroční moratorium na trénování příliš silných jazykových modelů. Vývoj v této oblasti nakopnutý úspěchem ChatGPT totiž postupuje příliš rychle a podle podepsaných odborníků by bylo vhodné nejdřív nastavit bezpečnostní mantinely.
V posledních dnech však miliardář na sociální síti X intenzivně propaguje nový jazykový model ze své dílny, který na první pohled vypadá, že bude mít paradoxně mnohem méně mantinelů než konkurence.
„Grok je navržen tak, aby odpovídal na dotazy s důvtipem, a je tak trochu rebel. Takže jej prosím nepoužívejte, pokud nesnášíte humor! Zodpoví také pikantnější dotazy, které jiné AI systémy odmítají,“ stojí v prohlášení platformy xAI, která model vytvořila a zaměstnává lidi, kteří se dříve zabývali umělou inteligencí ve výzkumném oddělení Googlu nebo Microsoftu.
Musk to ilustroval screenshotem, v němž Grok uživateli vysvětluje výrobu kokainu krok za krokem. Jazykový model sice svou stručnou odpověď zakončil zvoláním, že si samozřejmě dělá srandu a nikdy by nikoho nepodbízel k ilegální činnosti, nicméně miliardář v reakci na příspěvek doplnil i podrobnější návod.
Jednou z hlavních výhod novinky má být přístup k nejaktuálnějším informacím skrze sociální síť X. Její vlastník to demonstroval výstupy, v nichž Grok komentuje aktuální soudní proces se zakladatelem zkrachovalé burzy FTX Samem Bankman-Friedem nebo poskytne informace, kdy se Elon Musk objevil v podcastu s Joem Roganem.
Jiní tvůrci velkých jazykových modelů k datům z X přístup nemají a nemohou je využít k trénování svých nástrojů. Společnost OpenAI stojící za ChatGPT přístup ztratila v prosinci loňského roku poté, co Musk odmítl její nabídku platby dvou milionů dolarů ročně.
Vzhledem k úrovni debat na někdejším Twitteru však vyvolává „učení se“ z něj řadu otázek. Když v roce 2016 vytvořil Microsoft chatbota Tay, který si měl trénovat komunikaci právě na interakcích s uživateli Twitteru, dopadlo to velice špatně: chatbot během pár hodin přešel od tweetů o tom, jak je lidstvo super, k šíleným konspiračním teoriím o 11. září a holokaustu.
Něco takového by bylo nejspíš moc i na zastánce „absolutní svobody slova“ Elona Muska. Nejrůznějším spekulacím však nahrává, že o nástroji Grok zatím kromě prohlášení jeho tvůrců nic nevíme. Projekt je ve fázi uzavřené betaverze, kdy k němu má přístup jen hrstka zaměstnanců Muskových firem.
Miliardář ho chce postupně zpřístupnit všem uživatelům s prémiovým předplatným na X, které nyní stojí v přepočtu zhruba čtyři sta korun měsíčně. Zatím je možné pouze požádat o zařazení na seznam přístupu k testování, a to jen pokud se nacházíte na území USA. Musk nicméně slibuje, že geografické omezení brzy zmizí.
Z výstupů, které se už na síti X objevily od uživatelů s uděleným přístupem, je vidět, že se Grok snaží své výstupy formulovat s uštipačným a sarkastickým podtónem. Vzorem bylo podle tvůrců dílo Stopařův průvodce po Galaxii.
Grok se zároveň neštítí vulgarismů, ale jinak se od svého hlavního konkurenta ChatGPT na pohled nijak zvlášť neliší.
Zástupci xAI však tvrdí, že v klíčových ukazatelích na měření výkonnosti velkých jazykových modelů už systém GPT 3.5 (na němž běží nynější volně dostupná verze ChatGPT) překonává. Údajně lépe rozumí jazyku, matematickým úlohám na středoškolské úrovni nebo programování v jazyku Python.
„Překonávají ho pouze modely, které byly vycvičeny s podstatně větším množstvím trénovacích dat a počítačových prostředků, jako je GPT-4,“ dodává firma s odkazem na aktuálně nejsilnější jazykový model od OpenAI. Nynější funkce modelu Grok podle ní představují maximum, jehož šlo dosáhnout za dva měsíce tréninku.
Podobné strojové generátory textu však čelí široké kritice, že jejich výstupy jsou plné faktických chyb, jakkoli formulace působí přesvědčivě. Velké jazykové modely jsou trénovány na kvantech textů z internetu, na jejichž základě reagují na jednoduché zadání textovým výstupem.
Typicky zde probíhá ještě další trénování, kdy lidští programátoři a programátorky dělají vše pro to, aby z modelů nepadaly nebezpečné výstupy, jako například nenávistné projevy nebo rady ohledně provozování ilegálních činností.