Čínská společnost DeepSeek spolupracuje s prestižní univerzitou Čching-chua v Pekingu na snižování potřeby trénování svých modelů umělé inteligence (AI). Chce si tak snížit provozní náklady. Čínský startup rozvířil trhy svým nízkonákladovým modelem AI, který se objevil na začátku roku.

Firma se rozhodla ke spolupráci s výzkumníky z pekingské univerzity a v odborném článku popisuje nový přístup k posilování učení, jehož cílem je zvýšit efektivitu modelů. Tedy aby byly schopny učit se stejně dobře nebo lépe, ale rychleji a s využitím méně dat a výpočetního výkonu.

Cílem nové metody je pomocí modelů AI lépe dodržovat lidské preference nabídkou odměn za přesnější a srozumitelnější odpovědi. Toto posilované učení se ukázalo být efektivní při zrychlování úloh AI v úzce zaměřených aplikacích a sférách. Rozšíření na obecnější aplikace se však ukázalo náročné, a to je problém, který se tým DeepSeeku snaží vyřešit něčím, co nazývá ladění pomocí sebekritického principu, tedy metody, při níž model sám kriticky hodnotí své výstupy podle vlastních principů. Tato strategie podle článku překonala stávající metody a dosáhla lepších výsledků.

DeepSeek tyto nové modely nazývá DeepSeek-GRM (generalist reward modeling), tedy obecné modelování odměn. Modely plánuje zveřejnit na bázi open source, což znamená, že budou dostupné zdarma pro všechny a vývojáři si je budou moci upravit a přizpůsobit pro svoji potřebu. Termín zatím neupřesnil.

Další vývojáři AI, jako je čínská společnost Alibaba či americká OpenAI, se také snaží proniknout do nové oblasti zlepšováním schopnosti uvažování a sebezdokonalování.

Americká internetová společnost Meta Platforms o víkendu představila nejnovější řadu modelů AI Llama 4 a jako první použila architekturu Mixture of Experts (MoE). Tento model je složený z více specializovaných podmodelů, a když dostane nějaký úkol, vybere si, který z těchto podmodelů je nejlépe schopen daný úkol zpracovat. Tento přístup může být efektivnější, protože model nevyužívá pro každý úkol všechny své zdroje, ale soustředí se pouze na ty, které jsou skutečně relevantní. Modely DeepSeeku se významně spoléhají na MoE, aby efektivněji využívaly zdroje.