Prérequis

Avant d'utiliser Zileo Chat, assurez-vous d'avoir les éléments suivants installés sur votre ordinateur. Ces outils sont nécessaires pour profiter de toutes les fonctionnalités de l'application.

Docker Desktop

Requis pour les serveurs MCP. Docker permet d'exécuter les serveurs MCP (Model Context Protocol) de manière isolée et sécurisée. Ces serveurs étendent les capacités de vos agents avec des outils spécialisés (analyse de code, recherche web, etc.).

  1. Télécharger Docker Desktop depuis docker.com
  2. Installer l'application et redémarrer si nécessaire
  3. Lancer Docker Desktop (il doit tourner en arrière-plan)
  4. Vérifier l'installation : docker --version dans un terminal

Fournisseurs LLM

Zileo Chat nécessite au moins un fournisseur de modèles de langage (LLM) pour fonctionner. Vous pouvez en configurer plusieurs simultanément.

O

Ollama

Local Cloud

Modèles en local ou via Ollama Cloud. Exécutez les modèles directement sur votre machine ou déléguez-les automatiquement à l'infrastructure cloud pour les modèles volumineux. Vos données ne sont pas conservées sur les serveurs cloud.

Gratuit Données locales Hors ligne Cloud
1Télécharger depuis ollama.ai
2Installer et lancer l'application
3Télécharger un modèle : ollama run kimi-k2.5:cloud
4Vérifier : ollama list pour voir les modèles installés
Modèle recommandé : kimi-k2.5:cloud
Ollama Cloud — Exécutez des modèles volumineux sans matériel puissant. Authentification requise via ollama signin. Plans : Gratuit ($0), Pro ($20/mois), Max ($100/mois). Documentation
M

Mistral AI

Cloud API Entreprise FR

Entreprise française, modèles performants via API. Mistral propose des modèles de pointe accessibles via une clé API. Pas besoin de matériel puissant, les calculs sont effectués sur leurs serveurs. Facturation à l'usage (tokens consommés).

Haute performance Pas de GPU requis Entreprise française
1Créer un compte sur console.mistral.ai
2Générer une clé API dans la console
3Ajouter du crédit (paiement à l'usage)
4Configurer la clé dans Zileo Chat (Paramètres > Providers)
Modèle recommandé : mistral-large-latest
N

Nebius Token Factory

Cloud API OpenAI-compatible

Plateforme d'inférence européenne pour modèles open-source à grande échelle. API compatible OpenAI avec plus de 60 modèles (Kimi, Llama, Qwen, Mistral...). Latence sub-seconde, autoscaling et 99.9% uptime. 1$ de crédits offerts à l'inscription.

1$ offert 60+ modèles API OpenAI-compatible Entreprise européenne
1Créer un compte sur tokenfactory.nebius.com
2Générer une clé API depuis le dashboard
3Tester les modèles dans le Playground intégré
4Configurer la clé dans Zileo Chat (Paramètres > Providers)
Endpoint : https://api.tokenfactory.nebius.com/v1/
OR

OpenRouter

Cloud API Multi-providers

API unifiée donnant accès à plus de 400 modèles IA (OpenAI, Anthropic, Google, Meta, Mistral...) via un seul endpoint. Gestion automatique des fallbacks et sélection des options les plus économiques. Crédits gratuits pour tester.

Crédits offerts 400+ modèles Fallback auto
1Créer un compte sur openrouter.ai
2Générer une clé API dans Account > API Keys
3Ajouter des crédits depuis la page Credits (ou activer l'auto top-up)
4Configurer la clé dans Zileo Chat (Paramètres > Providers)
Endpoint : https://openrouter.ai/api/v1

Quel fournisseur choisir ?

Ollama

Idéal pour débuter. L'abonnement cloud permet d'utiliser des modèles open source performants (Kimi K2.5, futurs modèles) sans contrainte matérielle.

Mistral AI

Nécessaire pour le modèle d'embedding. Mistral Large est adapté aux tâches nécessitant précision et fiabilité.

Nebius Token Factory

Entreprise européenne conforme au RGPD. Excellente alternative pour les modèles open source avec une API compatible OpenAI, des tarifs compétitifs et la garantie que vos données restent en Europe.

OpenRouter

Le choix polyvalent. Accès à 400+ modèles de tous les fournisseurs via une seule clé API, avec fallback automatique.