Modèles
Les modèles de langage (LLM) sont les moteurs d'inférence utilisés par vos agents. Chaque modèle doit être configuré manuellement avec son identifiant API exact et ses spécifications techniques.
Add Custom Model
Identifiants des modèles
Le nom du modèle doit correspondre exactement à l'identifiant attendu par le fournisseur.
Ollama
Exécutez ollama list pour afficher les modèles installés. Spécifications sur ollama.com/library.
kimi-k2.5:cloud
mistral
llama3.3
Mistral AI
Identifiants disponibles dans la documentation Mistral.
mistral-large-latest
mistral-small-latest
codestral-latest
Nebius Token Factory
Consultez le catalogue Nebius ou le terrain d'essai intégré pour les identifiants exacts.
Qwen/Qwen3-235B-A22B
meta-llama/Llama-3.3-70B-Instruct
OpenRouter
Parcourez les modèles disponibles. Format : éditeur/nom-du-modèle.
anthropic/claude-sonnet-4
google/gemini-2.5-pro
Modèle recommandé pour Ollama
kimi-k2.5:cloud
Recommandé
Raisonnement
Modèle open source offrant d'excellentes performances générales et un suivi des instructions fiable. Modèle de type "raisonnement" : cocher l'option correspondante lors de la configuration.
ollama run kimi-k2.5:cloud
(nécessite ollama signin pour Ollama Cloud)
Paramètres techniques
Chaque modèle possède des spécifications qui déterminent ses capacités et son comportement.
Nombre maximum de jetons (texte d'entrée + historique) que le modèle peut traiter en une requête.
32K 128K 256K
Nombre maximum de jetons que le modèle peut générer en réponse. Détermine la longueur maximale des réponses.
Paramètre de 0 à 1 contrôlant la variabilité des réponses.
Option pour les modèles de raisonnement (ex: Kimi K2.5). Active le mode de réflexion interne avant génération. Ne pas cocher pour les modèles standards (Mistral Large, Llama).
kimi-k2.5
mistral-large
Prix par million de jetons (entrée/sortie). Utile pour estimer les coûts d'utilisation des modèles cloud.
Tarifs détaillés sur mistral.ai/pricing
Gratuit (local) ou selon abonnement cloud
Tarifs sur nebius.com/token-factory/prices
Prix par modèle sur openrouter.ai/models