Modèles

Les modèles de langage (LLM) sont les moteurs d'inférence utilisés par vos agents. Chaque modèle doit être configuré manuellement avec son identifiant API exact et ses spécifications techniques.

Identifiants des modèles

Le nom du modèle doit correspondre exactement à l'identifiant attendu par le fournisseur.

O

Ollama

Exécutez ollama list pour afficher les modèles installés. Spécifications sur ollama.com/library.

kimi-k2.5:cloud mistral llama3.3
M

Mistral AI

Identifiants disponibles dans la documentation Mistral.

mistral-large-latest mistral-small-latest codestral-latest
N

Nebius Token Factory

Consultez le catalogue Nebius ou le terrain d'essai intégré pour les identifiants exacts.

Qwen/Qwen3-235B-A22B meta-llama/Llama-3.3-70B-Instruct
OR

OpenRouter

Parcourez les modèles disponibles. Format : éditeur/nom-du-modèle.

anthropic/claude-sonnet-4 google/gemini-2.5-pro

Modèle recommandé pour Ollama

kimi-k2.5:cloud Recommandé Raisonnement

Modèle open source offrant d'excellentes performances générales et un suivi des instructions fiable. Modèle de type "raisonnement" : cocher l'option correspondante lors de la configuration.

Installation : ollama run kimi-k2.5:cloud (nécessite ollama signin pour Ollama Cloud)

Paramètres techniques

Chaque modèle possède des spécifications qui déterminent ses capacités et son comportement.

Fenêtre de contexte

Nombre maximum de jetons (texte d'entrée + historique) que le modèle peut traiter en une requête.

Valeurs courantes : 32K 128K 256K
Sortie maximale

Nombre maximum de jetons que le modèle peut générer en réponse. Détermine la longueur maximale des réponses.

Température

Paramètre de 0 à 1 contrôlant la variabilité des réponses.

0.1 — 0.3 Déterministe
0.7 — 1.0 Créatif
Raisonnement

Option pour les modèles de raisonnement (ex: Kimi K2.5). Active le mode de réflexion interne avant génération. Ne pas cocher pour les modèles standards (Mistral Large, Llama).

kimi-k2.5
mistral-large
Tarification

Prix par million de jetons (entrée/sortie). Utile pour estimer les coûts d'utilisation des modèles cloud.

Mistral AI

Tarifs détaillés sur mistral.ai/pricing

Ollama

Gratuit (local) ou selon abonnement cloud

OpenRouter

Prix par modèle sur openrouter.ai/models