Označovat text generovaný vlastním jazykovým modelem se tvůrcům ChatGPT moc nechce. Mají na to už nástroj, který však minimálně poslední rok drží pod pokličkou. Pro některé studenty by taková funkcionalita znamenala tragédii, naopak pro školy a pedagogy by byla požehnáním.
Už přes dva roky sedí tvůrci nejpokročilejšího modelu generativní umělé inteligence na systému, který by uměl text vytvořený jejich ChatGPT spolehlivě odhalit. Podle The Wall Street Journal je minimálně poslední rok připravený na vypuštění – jenže v OpenAI se bojí, že přílišná transparence povede k odlivu uživatelů.
To jim napovídá jeden z průzkumů, který si udělali mezi svými věrnými. Výsledek? Téměř třetinu z nich by zařazení takové technologie od rozsáhlejšího využívání ChatGPT nejspíš odradilo. Tím spíš, že podle OpenAI má nástroj úspěšnost 99,9 procenta.
Kromě byznysových důvodů se ale v OpenAI odvolávají i na možná znevýhodnění způsobená systémem, který text vygenerovaný jejich umělou inteligencí označuje neviditelným vodoznakem. Mimo jiné argumentují tím, že uživatelé neovládající plynně angličtinu přijdou o velký bonus, který jazykový model přináší.
„Označování textu námi vyvíjeným vodoznakem je slibné, ale jsou s ním spojena důležitá rizika, jež nyní zvažujeme a hledáme alternativy. Věříme, že promyšlený přístup, který jsme zvolili, je nezbytný vzhledem ke složitosti a pravděpodobnému dopadu na širší ekosystém mimo OpenAI,“ uvedla mluvčí společnosti.
Nejčastěji zmiňovanou skupinou, nad kterou označování textů od ChatGPT krouží jako sup, jsou přirozeně studenti. Schopnost systému od OpenAI vygenerovat esej nebo seminární práci usnadňuje řadě z nich studium, zatímco vyučující jsou na rozpoznání generativní AI většinou krátcí.
Častěji se tak spíše učí, jak s novou technologií žít. „Věříme, že zakazovat studentům využívat umělou inteligenci by nemělo žádný smysl, protože realitou je, že mnoho z nich ji už využívá,“ řekl dříve Forbesu koordinátor skupiny AI a metodik výukových inovací na Masarykově univerzitě Jakub Havlíček.
Že nejde jen o paniku zpátečnických pedagogů, dokládá i experiment, ve kterém zvládl ChatGPT projít prvním ročníkem Harvardovy univerzity. S výbornými známkami a splněným zápočtem se mu to podařilo lépe než většině studentů.
„Odhalení, a především pak prokázání zneužití generativní AI je na rozdíl od běžných plagiátů v praxi velmi obtížné a nakonec může záviset na tom, zda se studující k takovému zneužití přizná, nebo ne,“ řekl Havlíček.
Jenže zatímco doteď měly univerzity vesměs k ruce systémy třetích stran a výzvy k čestnému studiu, nástroj přímo od OpenAI by jim dal do ruky účinný bič na ty, kteří využívají ChatGPT k podvádění. OpenAI zatím technologii spustila pouze pro své modely generující obrázky či video, především prý kvůli možnosti zneužití v probíhající volební prezidentské kampani ve Spojených státech.
Podle insiderů šéf společnosti Sam Altman i jeho CTO Mira Murati rozvoj tohoto nástroje podporují, ale stejně jako další z vedení OpenAI se do jeho vypuštění do světa nehrnou. Jeden pokus už za sebou navíc mají: v lednu 2023 zveřejnili algoritmus, který měl text generovaný jakoukoli AI odhalovat.
Po zjištění, že je úspěšný jen v šestadvaceti procentech případů, však firma algoritmus stáhla.
Neviditelné vzorce jako podpis
Jak zmíněné „vodoznačení“ vlastně funguje? Název metody je sám o sobě zavádějící – nepředstavujte si klasický vodoznak, jakým svá díla opatřují třeba fotografové, aby se předešlo jejich neschválenému využití. Označení textu je zjednodušeně řečeno generováno samotnou volbou slov, frází a jejich řazení za sebou. Za pomoci statistické pravděpodobnosti je pak systém schopný odhalit, že text psala umělá inteligence.
Model umělé inteligence od ChatGPT předpovídá, které slovo či jeho část, mezi vývojáři známá jako token, má v generované větě následovat. Zatím utajovaný nástroj od OpenAI by lehce pozměnil způsob, jakým tyto tokeny algoritmus vybírá – výsledkem by byl člověkem nepozorovatelný vzorec, který ale detekční systém rozpoznat umí. A vodoznak je na světě.
Podle zprávy The Wall Street Journal se však v OpenAI obávají, že obejít jejich metodu označování může být až absurdně lehké. Stačit může třeba prohnání pokročilými překladači z jednoho jazyka do druhého a zpět. Stejně tak prý může fungovat metoda, v níž necháte ChatGPT přidat do textu emoji, které následně ručně smažete a detekovatelný vzorec tím nenávratně narušíte.
Někteří vysokoškolští pedagogové a pedagožky se snaží své studentstvo, využívající schopnosti ChatGPT, přechytračit. Josh McCrain, profesor z univerzity v Utahu, svým svěřencům poslal jedno ze zadání na esej e-mailem. Do instrukcí ale malým neviditelným textem chytře zakomponoval pokyny, aby součástí práce byly nesmyslné odkazy na Batmana.
Výsledek nepřekvapil: vrátilo se mu několik esejí z politologie odkazujících na netopýřího muže z Gothamu. Kromě toho McCrain doporučuje výuku navazovat na aktuální události ze světa, se kterými má ChatGPT s časově omezenou databází tréninkových dat z principu problémy.
Označení obsahu generovaného vlastním systémem, jaké vyvíjí OpenAI, už zavedli v DeepMind, dceřiné firmě Microsoftu zaměřené na generativní AI modely. DeepMind skrytě neoznačuje jen vygenerovaný text, ale také video či audio. A stejný systém pro svou umělou inteligenci Gemini AI provozuje také Google.