Trois modes de déploiement, une seule plateforme
Selon vos contraintes de sécurité, de budget et de performance, nous adaptons le déploiement. Vous pouvez même combiner plusieurs modes.
Comparatif des modes de déploiement
Chaque mode répond à des contraintes différentes. Voici les critères clés pour vous aider à choisir.
| Critère | LLM Local | LLM API | LLM Embarqué |
|---|---|---|---|
| Confidentialité | Totale — aucune donnée ne sort de votre infrastructure | Élevée — transit chiffré vers des fournisseurs de confiance | Maximale — tout reste sur le poste local, aucun réseau |
| Latence | Faible — inférence sur votre réseau local | Variable — dépend du fournisseur et de la connexion | Très faible — inférence directe sur la machine |
| Coût | Investissement initial (GPU), puis coût fixe | Paiement à l'usage (tokens), pas d'investissement matériel | Faible — matériel existant (Mac, PC récents) |
| Performance | Haute — modèles de 7B à 70B+ selon le matériel | Maximale — accès aux meilleurs modèles du marché | Correcte — modèles quantisés de 3B à 14B |
| Connectivité requise | Réseau local uniquement | Connexion internet obligatoire | Aucune — fonctionne 100% hors ligne |
| Cas d'usage typique | Entreprises avec données sensibles, équipes techniques | Besoin de performance maximale, déploiement rapide | Sites isolés, équipes nomades, postes sensibles |
Explorez chaque mode en détail
LLM Local
Déployer un modèle IA directement dans votre infrastructure. Confidentialité totale, zéro dépendance cloud. Idéal pour les environnements sensibles.
→ En savoir plusLLM via API
Connectez les meilleurs modèles du marché (OpenAI, Anthropic, Mistral) via API. Performance maximale, déploiement immédiat.
→ En savoir plusLLM Embarqué
Un modèle IA qui tourne directement sur un poste de travail, sans réseau. Parfait pour les sites isolés et les équipes nomades.
→ En savoir plus