Afficher le résumé Masquer le résumé
- Pourquoi utiliser Ollama avec Clawdbot ?
- Comment configurer Ollama avec Clawdbot
- 1. Installer Ollama
- 2. Télécharger un modèle
- 3. Activer Ollama dans Clawdbot
- 4. Configurer votre agent
- Découverte automatique des modèles
- Modèles recommandés
- Configuration avancée
- Sécurité intégrée
- Comparaison des coûts
- Sources et ressources
Clawdbot, l’assistant IA open source, propose désormais une intégration officielle avec Ollama. Cette combinaison permet de faire tourner un assistant IA personnel 100% en local, sans envoyer la moindre donnée vers le cloud. Une solution idéale pour les utilisateurs soucieux de leur vie privée et de leurs coûts d’API.
Pourquoi utiliser Ollama avec Clawdbot ?
Ollama est un runtime LLM local qui simplifie l’exécution de modèles open source sur votre machine. L’intégration avec Clawdbot offre plusieurs avantages majeurs :
- Confidentialité totale : vos données restent sur votre machine, zéro envoi vers le cloud
- Coûts nuls : plus de factures API mensuelles
- Fonctionnement hors ligne : idéal pour les environnements sécurisés ou sans connexion
- Choix des modèles : Llama 3.3, Qwen 2.5 Coder, DeepSeek R1, Mistral et bien d’autres
Comment configurer Ollama avec Clawdbot
L’installation se fait en quelques étapes simples :
1. Installer Ollama
Téléchargez Ollama depuis le site officiel ollama.ai et installez-le sur votre machine (Windows, Mac ou Linux supportés).
2. Télécharger un modèle
# Llama 3.3 - excellent rapport qualité/performance
ollama pull llama3.3
# Qwen 2.5 Coder - spécialisé pour le code
ollama pull qwen2.5-coder:32b
# DeepSeek R1 - modèle de raisonnement
ollama pull deepseek-r1:32b
3. Activer Ollama dans Clawdbot
# Via variable d'environnement
export OLLAMA_API_KEY="ollama-local"
# Ou via la config Clawdbot
clawdbot config set models.providers.ollama.apiKey "ollama-local"
4. Configurer votre agent
Dans votre fichier de configuration Clawdbot :
{
agents: {
defaults: {
model: { primary: "ollama/llama3.3" }
}
}
}
Découverte automatique des modèles
L’un des points forts de cette intégration est la découverte automatique. Clawdbot interroge Ollama pour :
À lire Claude Opus 4.6 vs GPT-5.3 Codex : Le Duel des Titans IA en 2026
- Lister tous les modèles installés via
/api/tags - Identifier ceux qui supportent les outils (function calling)
- Détecter les modèles de raisonnement (thinking)
- Récupérer automatiquement la taille de contexte
Pour voir vos modèles disponibles :
ollama list
clawdbot models list
Modèles recommandés
Voici les meilleurs modèles à utiliser avec Clawdbot selon votre cas d’usage :
Modèle Cas d’usage RAM requise llama3.3 Usage général, conversations 8 GB qwen2.5-coder:32b Programmation, code 20+ GB deepseek-r1:32b Raisonnement complexe 20+ GB mistral Tâches légères, rapide 4 GB
Configuration avancée
Si Ollama tourne sur une autre machine de votre réseau :
{
models: {
providers: {
ollama: {
baseUrl: "http://mon-serveur:11434/v1",
apiKey: "ollama-local"
}
}
}
}
Sécurité intégrée
L’intégration inclut des mesures de sécurité pour éviter d’exposer Ollama sur le réseau par erreur :
- Connexion localhost uniquement par défaut (127.0.0.1:11434)
- Avertissement si Ollama est exposé sur des interfaces réseau
- Vérification des configurations potentiellement dangereuses
Comparaison des coûts
Avec Ollama, tous les coûts de tokens sont à 0$. Comparé aux API cloud :
Solution Coût mensuel estimé* Claude API (usage modéré) 50-200$/mois GPT-4 API 30-150$/mois Ollama local 0$/mois