Představte si následující situaci. Přijde vám zpráva od šéfa nebo firemního kolegy, ve které se píše, že je potřeba něco vyřešit přes online schůzku na platformě Teams nebo třeba Zoom. K tomu je připsáno, že jde o urgentní záležitost.
Připojíte se přes odkaz, na kterém na vás přes webkameru kouká zmiňovaná osoba, která s vámi komunikuje a chce po vás znát nějaké interní firemní údaje. Je vám to sice divné, ale vzhledem k tomu, že jde o videohovor, nakonec poskytnete, co po vás šéf či kolega chce. Jenže jste se v tu chvíli stali obětí hackerského útoku.
Hackeři se totiž zaměřují na nové typy útoků, mezi které patří i falešné videohovory. K nim využívají umělou inteligenci, respektive technologii na bázi generativní adverzní sítě. Pomocí té dokážou v reálném čase nahradit obličej podvodníka tváří, která je napadené osobě známá.
„Před námi stojí nové typy útoků a podvodů, které sice vycházejí ze známých principů, ale jejich technologické provedení je na mnohem vyšší úrovni,“ říká Milan Kubálek, konzultant české IT společnosti Trask, který se zabývá AI. Podle něj je proto nutné se na sofistikovanější útoky dobře připravit.
„Do jisté míry jsme se naučili být obezřetní před phishingovými útoky, které se provádějí pomocí e-mailu. Co když vám ale zavolá třeba nadřízený a bude rychle potřebovat přístup k jistým citlivým údajům? Na telefonu vidíte jeho kontakt, slyšíte jeho hlas a vidíte také jeho obličej. Váš šéf navíc plynule reaguje na všechny dotazy a podněty,“ popisuje Kubálek.
Podle výzkumu společnosti Mandiant, která se zabývá kybernetickou bezpečností, už jsou zdokumentované i první známé případy technologie deepfake videa, které se na internetu prodávají přímo pro phishingové podvody.
Reklamy na hackerských fórech a kanálech sítě Telegram v angličtině a ruštině se chlubily schopností softwaru replikovat podobiznu osoby, aby byl pokus o vydírání nebo podvod ještě osobnější.
A podobné případy se objevují i v našem regionu. Právě takovou zkušenost s hackerským útokem, kdy se videohovoru účastnila deepfake kopie, totiž nedávno popsal například zakladatel fitness e-shopu GymBeam Dalibor Cicman.
„Kolegovi přišla na WhatsApp zpráva od účtu, který byl velmi podobný tomu mému. Psal mým jménem, že se potřebuji s kolegou rychle spojit, a poslal link na Teams. Na videohovoru na Teams byla moje deepfake kopie s další osobou. Tu moje kopie představila jako našeho externího právníka a většinu moderoval on,“ popsal Cicman na sociální síti LinkedIn s tím, že se hackeři snažili zjistit zůstatky na firemních bankovních účtech.
V takových případech je potřeba dodržovat obezřetnost. A důsledně dodržovat zásadu nedůvěřuj a prověřuj. Jak na to? Falešný videohovor za pomoci AI můžeme odhalit například banálním dotazem na nějakou aktuální skutečnost.
„Pokud máme hovor s fiktivní osobou, kterou známe, můžeme se zeptat na nějaký fakt, který není veřejně publikován. Pokud máme silné podezření, můžeme hovor ukončit a osobě zavolat zpět,“ radí Milan Kubálek z Trasku. „Obecně platí, že pokud nemáme stoprocentní jistotu, kdo s námi skutečně komunikuje, nikdy nesdělujeme žádné osobní informace a už vůbec žádná citlivá data,“ dodává.
Máme se tedy bát, že co nevidět bude každý druhý videohovor falešný a my nebudeme vědět, kdy se bavíme s reálnou osobou? Nejspíš ne. Ačkoli se modely hlubokého učení výrazně posouvají kupředu zejména s rozvojem generativní umělé inteligence, stále mají také své slabiny, které můžeme při odhalování falešných videohovorů využít.
Za prvé, vyžadují vysoký výpočetní výkon. „Pro generování falešného videa ve vysoké kvalitě a v reálném čase je nutné mít k dispozici specializované výpočetní stanice s výkonnými grafickými kartami,“ vysvětluje Kubálek. Ceny těchto stanic se mohou pohybovat v řádu milionů korun dle výkonu grafických zdrojů. Proto útočníci využívají spíše videa ve výrazně nižší kvalitě, která jsou na první pohled rozmazaná.
K tomu, aby podvodník vytvořil skutečně věrohodnou kopii vaší osoby, potřebuje také velké množství vašich fotek nebo videí ve vysoké kvalitě. S rozšířením sociálních sítí je sice stále jednodušší získat data o komkoli, zároveň ale platí, že čím méně kvalitních vstupů podvodník má, tím větší úsilí musí vynaložit, aby podvodné video vypadalo reálně.
„Mezi standardní neduhy podvodných videí patří například plastická mimika tváře, neproporcionální symetrické rysy, jako třeba levé ucho výrazně jiné než pravé, nebo šumění v okolí obličeje,“ shrnuje Kubálek.