Ilja Sutskever, spoluzakladatel a bývalý hlavní vědecký pracovník OpenAI, získal pro svůj nový startup Safe Superintelligence (SSI) investici ve výši jedné miliardy dolarů. Společnost zaměřená na bezpečnost umělé inteligence si klade za cíl vyvinout bezpečné AI systémy, které budou výrazně převyšovat schopnosti člověka.

Ačkoli společnost ještě nemá žádný produkt a přiznává, že může trvat delší dobu, než se stane ziskovou, vzbudila zájem investorů díky svému jedinečnému zaměření na bezpečnost.

Mezi hlavní investory patří DST Global, SV Angel, a16z nebo Sequoia, která již dříve financovala OpenAI a vývoj proslulého chatbota chatGPT. Podílelo se také NFDG, investiční partnerství vedené Natem Friedmanem a výkonným ředitelem SSI Danielem Grossem.

Startup SSI, který momentálně zaměstnává deset lidí, plánuje použít získané finanční prostředky na nákup výpočetního výkonu a najmutí špičkových talentů. V plánu je vybudování malého vysoce důvěryhodného týmu výzkumníků a inženýrů rozděleného mezi kalifornské Palo Alto a izraelský Tel Aviv.

Firma chce vytvářet bezpečné systémy umělé inteligence, které se vyrovnají schopnostem lidského mozku, nebo je dokonce překonají. Chce se stát jakýmsi bezpečnostním kontrolním bodem pro nové AI modely, které bude testovat před uvedením na trh.

Společnost svoji hodnotu nezveřejnila, ale zdroje agentury Reuters uvedly, že její ocenění bylo stanoveno na pět miliard dolarů. Taková částka potvrzuje, že jsou někteří investoři stále ochotni uzavírat nadstandardní sázky na výjimečné talenty zaměřené na základní výzkum umělé inteligence. A to navzdory všeobecnému poklesu zájmu o financování takových společností, které mohou být po určitou dobu ztrátové, což způsobilo, že několik zakladatelů startupů opustilo své posty ve prospěch technologických gigantů.

„Je pro nás důležité být obklopeni investory, kteří chápou, respektují a podporují naše poslání, kterým je přímá cesta k bezpečné superinteligenci, a zejména strávit několik let výzkumem a vývojem našeho produktu, než jej uvedeme na trh,“ řekl ředitel Gross pro agenturu Reuters.

K úspěšnému financování nepochybně přispěly také Sutskeverovy reference a zázemí. Před několika měsíci totiž vědec odešel z OpenAI kvůli obavám z nedostatečného upřednostňování bezpečnosti.

Bezpečnost umělé inteligence, tedy prevence potenciálních škod, které by mohla umělá inteligence způsobit, je velmi aktuálním tématem. Stále častěji se totiž objevují obavy, že by nekontrolovaná AI mohla jednat proti zájmům lidstva, nebo dokonce způsobit jeho zánik.