
Mixture of Experts alimentează modelele AI de ultimă generație, rulează mai rapid pe NVIDIA Blackwell
Articolul evidențiază faptul că cele mai inteligente modele AI open-source utilizează o arhitectură mixture-of-experts (MoE). Aceste modele, inclusiv Kimi K2 Thinking și Mistral Large 3, ating o creștere a vitezei de 10x pe NVIDIA GB200 NVL72.
Reclamă
728 × 90
Rezumat Detaliat
Arhitectura mixture-of-experts (MoE) este nucleul multor modele AI avansate de astăzi. Această arhitectură este prezentă în modelele open-source de top. NVIDIA GB200 NVL72 accelerează semnificativ performanța acestor modele MoE, oferind un impuls de viteză de 10x.
⚠️ Notă: Acesta este un rezumat generat automat. Drepturile asupra conținutului aparțin sursei originale. Citește articolul complet aici
Sursa originală
Citește articolul complet aici
Reclamă
728 × 90
Articole similare

Modelele open-source chinezești reprezintă 30% din utilizarea globală a AI: raport
Un raport indică faptul că modelele AI open-source chinezești sunt utilizate în 30% din aplicațiile globale de AI. Articolul subliniază influența tot mai mare a modelelor AI chinezești.

Vulnerabilități critice găsite în GitHub Copilot, Gemini CLI, Claude și alte instrumente AI afectează milioane
GBHackers News a raportat vulnerabilități critice în mai multe instrumente AI. Aceste vulnerabilități afectează milioane de utilizatori.

GeoVista aduce geolocația AI open-source aproape de paritate cu modelele comerciale de top
GeoVista, un model de geolocație AI open-source, a atins aproape paritatea cu modelele comerciale de top. Această realizare oferă o alternativă viabilă și rentabilă pentru sarcinile de geolocație.

AWS abordează problema 'Prea multă informație' a AI
AWS abordează provocarea de a oferi cunoștințe specializate agenților AI fără a-i copleși cu context. Noul sistem de puteri al Kiro este cheia.