Generativní umělá inteligence, například textový systém ChatGPT, dokáže vytvářet poutavé a lidsky znějící odpovědi na nejrůznější otázky. Psycholog Marek Urban z Psychologického ústavu Akademie věd ČR nedávno v rozhovoru varoval, že práce s takovými nástroji s sebou nese rizika.
Modely často sebejistě generují zavádějící či nepřesné informace a uživatelé mohou mylně přeceňovat jejich výstupy. Urban zdůrazňuje, že k efektivnímu využití AI je zapotřebí kritického myšlení.
Zahraniční studie a experti tato varování potvrzují. Upozorňují, že kritické myšlení a ověřování informací jsou v éře generativní AI důležitější než kdy dřív, zejména ve vzdělávání, kde umělá inteligence může být dobrým sluhou, ale špatným pánem.
Potřeba kritického myšlení při práci s AI
Generativní AI dokáže produkovat texty, obrázky či zvuk, které na první pohled působí věrohodně. Právě proto experti zdůrazňují nezbytnost kritického myšlení při posuzování takového obsahu. Podle vzdělávacích specialistů je nutné učit se analyzovat argumenty a důkazy a ověřovat pravdivost informací.
Jinými slovy, uživatel by si měl vždy v duchu položit jednoduchou otázku: „Je tohle skutečně pravda?“. Jak trefně píše americký pedagog David Ross, samotná povaha generativní AI vyžaduje, aby čtenář nebo posluchač podrobil veškerý obsah kritickému zkoumání. V digitálním prostoru nás totiž denně bombardují hromady misinformací a dezinformací a AI k nim může nevědomky přispívat.
Varování před slepou důvěrou v generativní AI nezaznívá jen od pedagogů. Také profesionálové z různých oborů mají obavy, že masové využívání AI může oslabit lidské kritické uvažování. V průzkumu mezi výzkumníky v průmyslu 86 procent respondentů vyjádřilo přesvědčení, že rozmach AI povede alespoň do určité míry k úpadku kritického myšlení. Bez vlastního ověřování faktů a střízlivého posuzování rizik hrozí, že budeme výsledkům umělé inteligence přisuzovat větší váhu, než si zaslouží.
Přeceňování výstupů AI a slepá důvěra
Právě přeceňování správnosti výstupů AI je jedním z hlavních problémů, na které odborníci upozorňují. Mnoho uživatelů má tendenci slepě důvěřovat tomu, co jim systém, jako je ChatGPT, předloží, a to i v případě, že odpovědi obsahují zjevné chyby. Tento jev byl zdokumentován ve studiích z univerzitního prostředí.
Například profesor Kenneth Church z Northeastern University ve své třídě zjistil, že studenti ochotně odevzdali úkoly napsané ChatGPT, přestože obsahovaly množství faktických nepřesností, a to i navzdory tomu, že je předem varoval, že ChatGPT není vždy spolehlivý.
Slepá důvěra v umělou inteligenci může mít vážné důsledky. V krajních případech může vést až k plagiátorství, které ohrožuje akademickou integritu a může studentovi způsobit vážné problémy, včetně vyloučení ze studia.
AI ve vzdělávání: přínosy a úskalí pro studenty
Generativní AI proniká do světa vzdělávání závratnou rychlostí. Podle nedávného amerického průzkumu více než polovina mladých lidí ve věku čtrnáct až dvaadvacet let už nějaký AI nástroj vyzkoušela. Studenti uvádějí, že ChatGPT a podobné systémy používají nejen ke zjednodušení úkolů nebo opisování, ale i k hledání informací či získání nápadů při brainstormingu.
Někteří mladí dokonce označují AI za „moderní přístup k učení“ a zdůrazňují, že ne všichni ji využívají k podvádění, ale i ke kreativní tvorbě nebo jako pomůcku pro vysvětlení látky. Generativní modely tedy mohou při správném využití fungovat jako užitečný doplněk výuky.
Zároveň však výzkumy z univerzit naznačují, že neumělé spoléhání na AI může studentům i uškodit. Klíčové je, jak studenti s nástrojem pracují. Experiment na HEC Paris například ukázal, že když měli vysokoškoláci za úkol opravit a doplnit odpověď od ChatGPT, dopadli výrazně hůře, než když stejnou otázku řešili sami od začátku.
Jinými slovy, pokud student dostal k dispozici text od ChatGPT a měl jej zkontrolovat a vylepšit, většinou mu unikly zásadní chyby a vypracované zadání odevzdal hůře, než kdyby se spolehl jen na sebe. Autoři této studie to přičítají mimo jiné příliš vysoké důvěře v správnost odpovědí AI a také efektu známému jako konfirmační zkreslení: tendence nekriticky přijmout navržené řešení a přehlížet informace, které mu odporují.
Další výzkum publikovaný týmem z Aarhuské univerzity a Stanfordovy univerzity popsal dokonce „vyrovnávací efekt“ (equalizing effect). V experimentu, kde studenti řešili úlohy s pomocí modelu ChatGPT-4, se ukázalo, že slabší studenti se díky asistenci AI výrazně zlepšili, zatímco ti nejlepší podávali paradoxně horší výkony.
Výsledkem bylo, že se rozdíly mezi výkonností obou skupin vynulovaly a s AI skončili všichni zhruba na stejné úrovni. Nadprůměrní studenti totiž často nedokázali efektivně integrovat výstupy AI do své práce a někdy je využívali podobně nekriticky jako ti slabší.
Zde opět vstupuje do hry nutnost učit studenty správně pracovat s AI. Ne jako s berličkou, na kterou se slepě spoléhají, ale jako s nástrojem, jehož návrhy je nutné hodnotit s odstupem a být připraven je kriticky opravit.
Závěrem
Přestože generativní AI představuje určité hrozby, není cílem nikoho tyto nástroje paušálně zatracovat. Naopak, jak zdůrazňují odborníci, měli bychom se více, nikoli méně, věnovat začleňování AI do vzdělávání.
Generativní AI může být skvělý sluha. Ale jak ukazují studie, bez kritického myšlení se snadno změní v nebezpečného rádce. Výzvou nadcházejících let proto bude naučit se s AI zacházet odpovědně. Přijetí tohoto faktu je prvním krokem k tomu, abychom potenciál generativní umělé inteligence využili ku prospěchu, a nikoli ke své vlastní škodě.