Generativní nástroje umělé inteligence jsou tu a s nimi i nekonečný potenciál jejich zneužití. Umožňují extrémně snadno podvádět třeba při odevzdávání školních slohových prací, rutinně vymýšlejí neobjektivní a nesprávné informace a mohou například také snadno vytvářet dezinformace během voleb.
Miliardář Bill Gates, který letos časopisu Forbes řekl, že přechod na umělou inteligenci považuje za „naprosto stejně důležitý jako nástup počítačů“, se logicky všech těchto výzev obává. Jak však vyjádřil v nedávném příspěvku na svém blogu, věří, že umělou inteligenci lze využít i k řešení těchto a dalších problémů, které sama vytvořila.
Jedním z nejznámějších obtíží velkých jazykových modelů je jejich tendence „blouznit“ nebo produkovat věcně nesprávné a neobjektivní či škodlivé informace. Je to proto, že modely jsou trénovány na obrovském množství dat shromážděných z internetu, která jsou zaplevelena zkreslenými a mylnými informacemi.
Gates však věří, že je možné vytvořit nástroje umělé inteligence, které si budou vědomy chybných dat, na nichž jsou vyškoleny, a neobjektivních předpokladů, které vytvářejí.
„Modely umělé inteligence berou za své veškeré předsudky, které jsou zakódovány do textu, na němž jsou vyškoleny,“ napsal. „Jsem optimistický v tom, že se časem podaří modely AI naučit rozlišovat fakta od fikce. Jedním z přístupů je zabudovat do AI lidské hodnoty a uvažování na vyšší úrovni,“ dodal.
V tomto duchu vyzdvihl snahy společnosti OpenAI, tvůrce ChatGPT, o větší přesnost a vyšší reprezentativnost a bezpečnost svých modelů prostřednictvím zpětné vazby od lidí.
I tento virální chatbot je však zatížen zkresleními a nepřesnostmi, a to i po tréninku na pokročilé verzi svého velkého jazykového modelu GPT-4. Výzkumníci v oblasti umělé inteligence například zjistili, že ChatGPT posiluje genderové stereotypy o práci žen a mužů.
A novější chatboty, jako například konkurenční bot Claude 2.0 společnosti Anthropic, se také snaží zvýšit přesnost a snížit množství škodlivého obsahu, ale zatím nebyly tak široce testovány uživateli.
Gates má důvod, proč o ChatGPT mluví – jeho společnost Microsoft investovala do OpenAI miliardy dolarů. A koncem dubna se jeho majetek zvýšil o dvě miliardy dolarů poté, co Microsoft ve své zprávě o výdělcích více než padesátkrát zmínil umělou inteligenci. V současné době je jeho hodnota Gatesova majetku odhadována na zhruba 118 miliard dolarů.
Jedním z příkladů, o kterých Gates na svém blogu hovořil, je to, jak hackeři a kyberzločinci využívají generativní nástroje umělé inteligence k psaní kódů nebo vytváření hlasů generovaných umělou inteligencí za účelem provádění telefonních podvodů.
Nekontrolovatelné dopady těchto nástrojů ostatně vedly některé vedoucí představitele a odborníky na umělou inteligenci, včetně spoluzakladatele společnosti Apple Steva Wozniaka, generálního ředitele společností Tesla, SpaceX a Twitter Elona Muska a spoluzakladatele Centra pro lidské technologie Tristana Harrise, k výzvě, aby se načas zcela přestalo s nasazováním výkonných nástrojů umělé inteligence. Napsali to v otevřeném dopise koncem března.
Gates se proti dopisu ohradil a zdůraznil, že si nemyslí, že pauza ve vývoji nějaké problémy vyřeší. „Neměli bychom se snažit dočasně bránit lidem v zavádění nových vývojových trendů v oblasti umělé inteligence, jak někteří navrhují,“ napsal.
Podle něj jsou tyto důsledky naopak dalším důvodem, proč pokračovat ve vývoji pokročilých nástrojů umělé inteligence stejně jako regulací, tak, aby vlády a společnosti mohly odhalovat, omezovat a potírat zneužití umělé inteligence. „Kyberzločinci nepřestanou vytvářet nové nástroje… Snaha o jejich zastavení musí pokračovat stejným tempem,“ napsal.
Gatesovo tvrzení, že nástroje umělé inteligence lze využít k boji proti nedostatkům jiných nástrojů umělé inteligence, však nemusí prakticky obstát – alespoň zatím ne.
Na trh byla například uvedena řada detektorů umělé inteligence a detektorů deepfake, ale ne všechny jsou vždy schopny správně označit syntetický či zmanipulovaný obsah. Některé z nich, podle zprávy New York Times, nesprávně označují skutečné obrázky jako obrázky vytvořené umělou inteligencí.
I proto je ale podle Gatese důležité, aby vládní agentury a společnosti generativní umělou inteligenci monitorovali a rychle regulovali tak, aby měly pod kontrolou její nezamýšlené dopady na společnost.
„Nyní se nacházíme ve věku umělé inteligence. Je to podobné jako nejisté časy před omezením rychlosti a zavedením bezpečnostních pásů,“ napsal Gates.