MoE modeli rade 10 puta brže na Nvidia Blackwell NVL72

Baš kao što mozak aktivira određene regije na temelju zadatka, MoE ( mixture of experts) modeli dijele posao među specijaliziranim "stručnjacima", aktivirajući samo one relevantne za svaki AI token . To rezultira bržim i učinkovitijim generiranjem tokena bez proporcionalnog povećanja računalnih resursa.
Industrija je već prepoznala ovu prednost. Na neovisnoj ljestvici vodećih modela umjetne analize (AA), 10 najinteligentnijih modela otvorenog koda koristi MoE arhitekturu, uključujući DeepSeek AI-jev DeepSeek-R1, Moonshot AI-jev Kimi K2 Thinking , OpenAI-jev gpt-oss-120B i Mistral AI-jev Mistral...
- Objavljeno u Novosti










