Entreprise

Mistral AI dégaine un nouveau LLM formé avec l'approche «Mixture of Experts»

Mistral AI, la start-up française devenue licorne, a lancé son nouveau modèle de langage Mixtral 8x7B, basé sur l'approche « Mixture of Experts ». Ce modèle multilingue surpasse Llama 2 70B et GPT-3.5 sur de nombreux benchmarks, offrant des performances rapides et une gestion optimisée des ressources.

Mistral AI dégaine un nouveau LLM formé avec l'approche «Mixture of Experts»

Mistral AI : Une licorne française et un modèle de langage révolutionnaire

La start-up française Mistral AI, récemment devenue une licorne après avoir levé 385 millions d'euros, a annoncé le lancement de son nouveau modèle de langage, Mixtral 8x7B. Ce modèle, conçu selon l’approche « Mixture of Experts », promet des performances impressionnantes.

Une valorisation impressionnante et un modèle de pointe

Quelques semaines après avoir dévoilé son premier grand modèle de langage, Mistral AI devient officiellement une licorne avec une valorisation de 1,86 milliard d'euros. Le nouveau modèle, Mixtral 8x7B, serait selon Mistral le plus puissant modèle de langage ouvert à ce jour. Il surpasserait Llama 2 70B sur de nombreux benchmarks, avec des capacités d’inférence six fois plus rapides. En outre, il égalerait ou surpasserait GPT-3.5 sur plusieurs critères.

Mixtral est un modèle multilingue capable de comprendre l'anglais, le français, l'italien, l'allemand et l’espagnol. Il excelle également en programmation et peut traiter une fenêtre de contexte de 32 000 tokens (environ 25 000 mots), comparable à GPT-4.

L’approche « Mixture of Experts » (MOE)

Le modèle Mixtral repose sur l’approche « Mixture of Experts » (MOE), qui permet d'augmenter le nombre de paramètres tout en contrôlant le coût et la latence. Ce modèle comprend 46,7 milliards de paramètres, mais n’en utilise que 12,9 milliards par token, ce qui optimise les ressources.

Dans une architecture MOE, des réseaux neuronaux distincts appelés « experts » traitent des sous-ensembles spécifiques des données d'apprentissage. Un réseau de passerelles orchestre la distribution des tokens vers les experts les plus pertinents pour chaque tâche. Ce système permet un pré-entraînement beaucoup plus efficace en termes de calculs, tout en offrant une inférence plus rapide que d'autres modèles de même taille.

Une innovation prometteuse pour l’IA

Mistral AI continue de se démarquer dans l'univers des start-ups IA avec un modèle qui réinvente la gestion des ressources tout en augmentant les performances. Mixtral est une étape importante dans l’évolution des modèles de langage et promet de révolutionner les usages de l’intelligence artificielle.

 

Source : ICTJournal

Conception, Technologiques, Entreprise
2 min de lecture
déc. 13, 2023
Par L. F.
Partager

Articles associés

janv. 28, 2025 • 4 min de lecture
Pourquoi tout ce buzz autour de Deepseek ?

Découvrez Deepseek, la start-up chinoise qui secoue l'IA avec son modèle R1 open source. Gratuit et...

janv. 27, 2025 • 2 min de lecture
Avec Operator, les ambitions d’OpenAI dans l’IA agentique se précisent

Découvrez Operator d'OpenAI, un agent IA qui réinvente l'automatisation des tâches web. Capable de r...

déc. 16, 2024 • 2 min de lecture
Le Conseil fédéral définit sa stratégie numérique pour 2025

Découvrez la stratégie numérique de la Suisse pour 2025, axée sur l'intelligence artificielle (IA),...

Pour améliorer votre expérience, ce site utilise des cookies. En poursuivant votre navigation, vous acceptez leur utilisation. Politique de Cookies