Umělá inteligence je svatý grál dneška, prohlásil nedávno Bill Gates: „Je to sen, na který myslí každý, kdo kdy měl co do činění s počítačovou vědou.“

Jenže tenhle sen se může brzy stát noční můrou. Na vývoji umělé inteligence neboli AI se totiž, jak upozorňuje agentura Bloomberg, podílejí převážně muži. A ti učenlivým strojům zprostředkovávají jen mužský postoj, takže hrozí, že umělá inteligence bude mít zkreslený a neúplný pohled na svět.

Když chcete počítače učit, jak vypadá svět, musíte shromáždit ohromné soubory dat, datasety prakticky o všem. Když se má počítač naučit poznávat květiny, je třeba ho „nakrmit“ desítkami tisíc fotografií květin. Takže až uvidí mizerně nasvícenou fotku sedmikrásky, může se spolehnout na svou zkušenost a správně analyzovat, co vidí.

Nejsou-li datové soubory dost velké nebo jsou špatně nastavené, může umělá učenlivá bytost postrádat některé aspekty pohledu na svět a nemusí dobře fungovat. Když nakrmíte software k analýze řeči jen vzorky mluvy lidí se spisovnou češtinou, dokonalou angličtinou nebo takzvanou „vysokou“ němčinou, bude v koncích, jakmile na něj promluví Američan, Slezan nebo nedejbože Švýcar.

Čtěte také: Umělá inteligence by bývala mohla zabránit katastrofě letadla Germanwings

A podobné je to s genderovým pohledem. Ženy tvoří jen 17 procent absolventů v oborech počítačových věd a v oblasti AI ještě míň. Takže když teď počítače učí lidskému chování výhradně muži, budou mít chytré stroje nutně zúžený pohled na svět. A navzdory pečlivému výběru datových souborů budou pravděpodobně odsouzeny k neúspěchu.

„Říkám tomu moře chlapů,“ podotýká Margaret Mitchell, zakladatelka kognitivní skupiny v Microsoftu, která se zabývá počítačovými vizemi a problémy jazyka. Sama odhaduje, že za posledních pět let pracovala se stovkami mužů a deseti ženami. „Věřím, že gender má vliv na typ otázek, které klademe,“ říká. „A sami se chováme krátkozrace.“

Nejedna technologická firma už zažila fiasko způsobené neúplným nebo špatně zadaným datasetem. Google vyvinul aplikaci, která omylem označovala černochy jako gorily, a Microsoft spustil v březnu počítačový program, který se učí od svých uživatelů (chatbot), jenž inklinoval k tomu nejhoršímu, co internet generuje.

Chatbot Tay si za čtyřiadvacet hodin od spuštění vyvinul rasistickou, sexistickou a homofobní osobnost. Uživatelé internetu si totiž uvědomili, že Tay se učí z jejich interakcí, takže mu posílali urážlivé, rasistické a podobné tweety. Tay vtělil jejich jazyk do svého mentálního modelu a začal chrlit víceméně to samé.

Čtěte také: Budoucnost Facebooku podle Zuckerberga: umělá inteligence a drony

Vývojářům umělé inteligence by mohly pomoci kontrolní softwary. Jeden takový vyvinula profesorka na Fakultě inženýrství a počítačových věd Oregonské státní univerzity Margaret Burnett. Software GenderMag, se kterým už experimentuje Microsoft, pomáhá vývojářům softwaru zabudovávat systémy, které počítají s rozdílností genderu svých uživatelů. Akademička také zkoumá, jaký vliv má na učenlivé systémy nesprávné pojetí genderu. „Když obsah, který dostávají, není různorodý, vycházejí z toho úzkoprsé, uzavřené, nepříliš dobré výsledky,“ komentuje to.

Startup Textio pomáhá společnostem změnit jazyk, jaký používají v inzerátech, aby se jim hlásilo víc žen. Textio analyzoval 1700 inzerátů v AI a srovnal je se 70 tisíci seznamy kolem šesti dalších typických IT profesí. Co zjistil? Nabídky práce v oblasti AI jsou psané skutečně „chlapácky“.

Třeba Amazon.com hledal inženýra-vývojáře softwaru inzerátem, v němž používal pojmy jako kódovací ninja, neúnavně nebo odvážně. „Hodně firem je na jedné straně zklamaných, jak málo žen mají na takových pozicích, a na druhé straně vesele vytvářejí obsah, jako byl tenhle,“ podotýká ředitelka Textia a bývalá zaměstnankyně Amazonu Kieran Snyder. Inzeráty podobného typu totiž moc uchazeček nepřilákají. A umělá inteligence tak možná bude mít onen „chlapácký“ pohled na svět.