Je světovým odborníkem na filozofii, logiku, etiku a morálku v online médiích. V exkluzivním rozhovoru pro Forbes upozorňuje Luciano Floridi na kvalitu a obsah informací dosažitelných pomocí umělé inteligence.
Patří mezi nejcitovanější současné filozofy a zapojuje se do politických iniciativ týkajících se sociálně-etických hodnot a vlivů digitálních technologií. Informace v nich chápe jako soubor uspořádaných dat, která by měla plnit roli pravdy. Právě to však může být i největší současnou technologickou mýlkou.
Informace závisí na zprostředkovateli, který je schopen interpretovat jak jednotlivá data, tak kontext. A ten je spolu s obsahem i hodnotou informací v rámci umělé inteligence omezený.
Italský filozof spolu s Nietzschem tvrdí, že bůh je mrtev – a příroda také. Jsou to tedy technologie, které ožívají? „Postupně jsme ztratili přírodu i boha. Není divu, že lidé začínají věřit AI jakožto další formě vyšší síly,“ říká Floridi.
Zodpovědnost je přitom podle něj na našich bedrech a měli bychom se umět spolehnout sami na sebe. Náš život přirovnává k šachové hře: mnoho tahů je třeba předvídat na začátku, abychom nakonec vyhráli, protože strategie vždy vítězí nad pouhou taktikou.
O myšlení za roh se profesor Floridi snaží i z hlediska etiky a morálky v médiích. „Měli bychom v sobě hýčkat pocit nedůvěry a kritického myšlení,“ nabádá.
Lidé v České republice začínají používat umělou inteligenci ve snaze usnadnit si život. Co o ní vědět z hlediska etiky a ochrany dat?
Samozřejmě, že nástroje umělé inteligence jsou pohodlné a celkem snadno se používají. Mnohé úkoly vyřeší za nás, a tak máme tendenci používat umělou inteligenci na čím dál širší škálu činností. Nechci vyloženě ukázat na nějaké problémy prstem, ale musím zmínit soukromí. Tato záležitost se s námi táhne po celou dobu digitální revoluce. Teď je vše ještě komplexnější.
V jakém smyslu?
Musíme vzít v úvahu, že jakákoli data, která do umělé inteligence vložíme, mohou být použita dále. Například pokud potřebujete napsat výroční zprávu, zadáte umělé inteligenci data, která chcete shrnout a analyzovat. Jenže se jich netýká žádná ochrana. Mohou zmizet, mohou být zneužita… Teoreticky i k nemorálním a nelegálním činnostem. A to se bavíme jen o rovině uživatele.
Podívejme se třeba na nástroje pracující s obrázky. Dejme tomu, že máte firmu, potřebujete udělat kampaň na nový produkt a chcete ušetřit za grafický design. Jenže při používání těchto nástrojů potřebujete znát autorská práva a duševní vlastnictví týkající se obrázků, které byly vytvořeny.
Háček je v tom, že mnoho těchto nástrojů se učilo na materiálu, který je chráněn autorským právem. Stává se tedy, že reprodukují věci, které ve skutečnosti nejsou volně použitelné. U vygenerovaného obsahu pak není jasné, kdo co vlastní.
A co hojně propíraná diskriminace?
Pokud pracuji v bance a rozhodnu se nástroje a algoritmy umělé inteligence využívat tak, abych zasáhl více zákazníků, může se stát, že zpětně zjistím, jak některé z nich neúmyslně diskriminuji. Mohou mezi vybranými být lidé pouze určitého zázemí, nebo speciální profil, pohlaví, etnicita…
Nutně se musíme zamyslet nad generováním obsahu z hlediska soukromí a duševního vlastnictví. Dále nad zlepšením algoritmů, aby nepřispívaly k předsudkům, diskriminaci a nespravedlnosti ve společnosti. Přirovnal bych to ke knize s mnoha a mnoha kapitolami.
Co na to legislativa?
Zákony o umělé inteligenci se snaží omezit rizika obzvlášť z hlediska posuzování daných nástrojů a certifikaci. Někdo prostě bude muset prověřit, jak jsou modely chráněny. Nejspíš budeme muset přijít s celým novým průmyslem, který se na to z evropského hlediska zaměří.
Už jsem viděl nějaké důkazy z hlediska řízení rizik. Jako se pojistíme, když řídíme auto, pojistíme proti dopadům AI náš dům nebo život.
Jak k umělé inteligenci obecně uživatelsky přistupovat?
S nedůvěrou a kritickým přístupem. Nedůvěra znamená používat tyto nástroje a vždy přemýšlet, co by se mohlo pokazit. Kdo dál použije data, která vkládám? Prozradím něco důležitého? Uvádím například podrobnosti o své rodině?
A ten kritický přístup?
Kritické myšlení aplikujeme, když se zabýváme spolehlivostí toho, co pro nás tyto nástroje dělají.
Můžete dát konkrétní příklad?
Dejme tomu, že chci znát trend inflace a zadám ho ChatGPT. Musím přesně zvážit, jaké otázky budu pokládat, abych dosáhl informací, které potřebuji. Zeptal jsem se správně? A pokud ano, dostal jsem odpověď, kterou jsem potřeboval? Poznám, že je správná?
Pokud je odpověď špatně, mohu to nějak ověřit? Jaký je zde prostor pro kritické myšlení a ověřování zdrojů? Nebo si prostě řeknu: když to říká ChatGPT, musí to být pravda. A když najdu chybu, mohu ji opravit?
Řekněme, že vám software odpoví, že inflace v Evropě byla mezi lety 2000 a 2010 průměrně pětatřicet procent.
Což je na první pohled mimo.
Ano, ale uvědomíme si to, když nám to ChatGPT naservíruje? A jak nesprávnou odpověď opravíme? Zde vidíte, že je nesmírně důležité pokládat ty správné otázky ve správném pořadí.
Dám vám další příklad. Když se zeptáte ChatGPT, kde jsem se narodil, téměř vždy vám odpoví, že v Římě, což je správně. Ale někdy vám to odpoví Janov, kde žije můj bratr, který má samozřejmě stejné příjmení. Pokud si takovou informaci neověřím a neopravím ji, znamená to, že pracuji s dezinformací, jakkoli jde v tomto případě o vtipný a neškodný příklad.
Situace ale může být závažnější…
Představte si, že půjde o žadatele o hypotéku a pracujeme s předpokladem, že má ChatGPT téměř vždycky pravdu, ale ne vždy. Jak poznáme, kdy ano? Máme potřebné nástroje, dovednosti a odborné znalosti k nápravě chyby, kterou umělá inteligence vytvořila?
K automatizaci dochází i v masmédiích. Co hrozí tam?
Některá italská média například úplně popletla informace během předávání Oscarů, zjevně vyrobené nějakým rozhraním umělé inteligence. Opět se nestalo nic špatného, protože to byla jen špatná informace. Bylo to snadno opraveno.
Představte si však, že jde o život, výdělek nebo kritické informace pro jednotlivce, rodinu, společnost, vládní organizaci… Pak se dostáváme do opravdových problémů.
Jsme zhýčkaní vychytávkami?
Lidská chuť po nových věcech je bezmezná. A stejně tak naše chuť nedělat věci, které dělat musíme. I umělá inteligence za nás dělá věci, které nechceme dělat.
Jak ji používáte vy?
K vyplňování formulářů či třeba shrnutí mých publikací. Nebo ke shrnutí mého životopisu ve tři sta slovech. To všechno jsou věci, které bych mohl dělat, ale nemám na to moc čas. ChatGPT je zvládne snadno.
Máme brát AI jako jakéhosi „autopilota“?
Takhle je obecně vnímaná. Jako druhý pilot, ne jako robot, který třeba žehlí místo nás.
V jedné z přednášek navazujete na Nietzscheho, že bůh je mrtvý – a podle vás i příroda. Co je tedy naživu? Umělá inteligence?
Když se ohlédneme do minulosti, všichni řečtí bohové mají blízký vztah k přírodě. Bohové a bohyně moří, řek, nebe, ale i vášně a války. Později jsme je nahradili jedním bohem, jehož existence, stejně jako příroda, pomáhá dát našemu životu smysl.
Jenže postupně jsme ztratili přírodu i boha. Není divu, že lidé začínají věřit v AI jakožto další formu vyšší síly. Může být silnější a ohromující. Možná převezme vládu, možná dá smysl našemu životu.
Smysl?
Někteří lidé i Googlu pokládají otázky typu „jakou práci bych měl mít“ nebo „je mi můj partner nevěrný“. Neberou ho jako vyhledávač, ale spíš za konečný zdroj pravdy. A totéž dnes dělají s ChatGPT. Mám si vybrat tuhle školu nebo jinou? Je toto ta práce pro mě?
Nevěřím v neexistenci boha, ale myslím, že je nejlepší spolehnout se sami na sebe. Žádná příroda, žádný Bůh, žádná umělá inteligence. Zodpovědnost je na našich bedrech. Včetně zodpovědnosti za to, aby byly naše životy smysluplné.
Jak vnímáte legislativu Evropské unie zaměřenou na regulaci umělé inteligence?
Bude záležet, jak různí členové Unie zákon o umělé inteligenci implementují. Ponechává velký prostor pro flexibilitu a je otevřený interpretaci. Některé země ho budou interpretovat velmi přísně a téměř pracovat proti inovacím. Jiné velmi vstřícně.
Jsou morální a etické porozumění a hodnoty pro každou zemi unikátní? A mění se časem?
Nejčastěji se mohou lišit z hlediska priority, které hodnoty jsou důležitější. Ale nemyslím, že když mají dvě země různé hodnoty, jsou neslučitelné. Jen nekompatibilní. Čína například vydala takzvané Pekingské principy, velmi podobné základním pravidlům OECD, jen s velkým důrazem na sociální odpovědnost a mnohem méně na individuální autonomii.
Tahle rozmanitost může být sama o sobě cenným aspektem. V Evropě základní hodnoty zdůrazňují lidskou důstojnost. Ve Spojených státech jde o svobodu slova nebo volný trh. V Číně je to sociální jistota a bezpečnost. A existuje snad na světě někdo, kdo nechce mít sociální bezpečí a jistotu, nechce mít lidskou důstojnost, nechce mít svobodu slova? Samozřejmě, že ne.
Je to, jako bychom si psali různé odstavce na stejné stránce. Otázkou je, zda postupujeme směrem ke stále větší konvergenci.
Co tedy radíte ohledně orientace v etických výzvách digitálního světa?
Nevolme zkratky a zvažme dlouhodobé důsledky a důsledky rozhodnutí, které má být učiněno. Spousta toho, co děláme, se podobá šachové hře. Abychom nakonec vyhráli, je třeba mnoho tahů předvídat na začátku. A strategie vždy vítězí nad pouhou taktikou.