LMbox
Vos données restent chez vous. Demander une démo
← Retour à la Box IA Modèles supportés

Quel LLM dans votre Box ?

Tous les modèles supportés sont open-source ou avec licence commerciale claire. Vous pouvez en activer plusieurs en parallèle, et changer à tout moment.

Provenance des poids EU/FR · Souveraineté maximale, qualité solide US · Qualité élevée, juridiction US CN · Qualité frontière, juridiction CN

Tous ces modèles sont open-weights, mais entraînés par des équipes situées dans des juridictions différentes. Pour un RSSI, la provenance compte autant que la licence : sanctions, audits possibles, et alignement compatible avec votre cadre légal.

★ Souverain EU FR
Mistral Large 2
Mistral AI

Modèle français haut de gamme. La meilleure option pour la souveraineté EU avec une qualité solide en agentic coding.

Paramètres
123B
Contexte
128k
Licence
MRL
Points forts : Rédaction de qualité · raisonnement · context 128k · entraîné en France
S M L XL
Tient sur
FR
Mistral Small 3
Mistral AI

Le bon compromis perf/coût quand on n'a pas besoin du Large. Apache 2.0 = aucune contrainte.

Paramètres
24B
Contexte
32k
Licence
Apache
Points forts : Rapide · français natif · Apache 2.0 · made in France
S M L XL
Tient sur
FR
Codestral 22B
Mistral AI

Spécialisé code, made in Mistral. Connecté au module Code Reviewer pour les équipes tech.

Paramètres
22B
Contexte
32k
Licence
MNPL
Points forts : Code (80+ langages) · refactoring · documentation auto · souverain EU
S M L XL
Tient sur
★ Recommandé US
Gemma 4 31B
Google DeepMind

Excellent rapport qualité/taille sur la M et la L. Bonne qualité de raisonnement et de rédaction en français.

Paramètres
31B
Contexte
128k
Licence
Gemma
Points forts : Multilingue (135+ langues) · raisonnement · synthèse · context 128k
S M L XL
Tient sur
US
Gemma 4 9B
Google DeepMind

Le frère cadet : tient sur la S, performances honnêtes pour les usages quotidiens.

Paramètres
9B
Contexte
128k
Licence
Gemma
Points forts : Léger · rapide · très utilisable en français
S M L XL
Tient sur
US
Llama 3 70B
Meta

Modèle référence Meta : large adoption mondiale, écosystème mature, mais juridiction US.

Paramètres
70B
Contexte
128k
Licence
Llama
Points forts : Anglais excellent · français correct · benchmarks publics solides
S M L XL
Tient sur
US
Llama 3 8B
Meta

Version compacte de Llama 3 : tient sur la S, idéal pour les usages volumineux.

Paramètres
8B
Contexte
128k
Licence
Llama
Points forts : Rapide · stable · très intégré aux outils tiers
S M L XL
Tient sur
US
Whisper Large v3
OpenAI (open weights)

Transcription audio multi-langues. Alimente le module Meeting Summarizer.

Paramètres
1.5B
Contexte
Licence
MIT
Points forts : Transcription précise · français + 99 autres langues · streaming
S M L XL
Tient sur
Frontière open-weights CN
Kimi K2.6
Moonshot AI

Champion open-weights 2026 sur LiveCodeBench. Architecture MoE, parallélisme sub-agents, requiert le LMbox XL.

Paramètres
~1T (32B active, MoE)
Contexte
200k
Licence
Modified
Points forts : Top agentic coding · raisonnement · 200k context · sub-agents
S M L XL
Tient sur
Frontière open-weights CN
DeepSeek V4 Pro
DeepSeek

Le rival le plus sérieux à Claude Sonnet sur SWE-bench. Licence MIT permissive, MoE 671B/37B actif.

Paramètres
~671B (37B active, MoE)
Contexte
128k
Licence
MIT
Points forts : Frontier coding · MIT · raisonnement profond · économique en inférence
S M L XL
Tient sur
Frontière open-weights CN
Qwen 3.6 Max
Alibaba Cloud

Vaisseau amiral d'Alibaba en 2026. Refactoring multi-fichiers solide, contexte 256k.

Paramètres
~110B
Contexte
256k
Licence
Tongyi
Points forts : Refactoring multi-fichiers · context 256k · multilingue
S M L XL
Tient sur
CN
Qwen 3.6 32B
Alibaba Cloud

Le sweet spot Qwen 3.6 qui tient sur le LMbox L. Excellent alternative à Llama 3 70B avec moins de RAM.

Paramètres
32B
Contexte
128k
Licence
Tongyi
Points forts : Tient sur Mac Studio 96 Go · multilingue · code agentique
S M L XL
Tient sur
CN
MiMo V2.5 Pro
Xiaomi

Spécialiste contexte ultra-long : 1 million de tokens en entrée. Pour ingérer une codebase entière en une requête.

Paramètres
~70B
Contexte
1M
Licence
Apache
Points forts : Contexte 1M tokens · ingestion massive · Apache 2.0
S M L XL
Tient sur
CN
GLM 5.1
Zhipu AI

Excellente option pour le fine-tuning sur vos propres données : licence MIT, pas de restriction commerciale.

Paramètres
32B
Contexte
128k
Licence
MIT
Points forts : MIT · fine-tunable · raisonnement solide · 32B dense
S M L XL
Tient sur
Choisir en connaissance

Quelle famille de modèles pour quel client ?

On a construit une matrice qualité × souveraineté × coût pour rendre la décision explicite. Du cabinet juridique au datacenter OIV, chaque profil a sa réponse.

Voir la matrice de décision
Gestion des modèles

Vous gardez la main sur ce qui tourne

Choisissez à l'install
Lors du déploiement initial, on configure les 2 ou 3 modèles principaux selon vos cas d'usage. Le reste est téléchargeable à la demande.
Changez quand vous voulez
L'admin peut activer ou désactiver un modèle en quelques clics. Pas de redémarrage. Pas de migration de données.
Benchmarkez en interne
Console admin avec test automatisé sur vos propres prompts. Comparez Gemma vs Mistral vs Llama sur vos cas réels.
Modèle sur-mesure

Un modèle propriétaire à intégrer ?

Vous avez fine-tuné un modèle interne, ou souhaitez intégrer un modèle non listé (Falcon, Phi, DeepSeek, etc.) ? Nous l'ajoutons à votre Box. Délai typique : 2 semaines.

Discuter de votre modèle