
Ollama MCP
par rawveg
Intégration complète du SDK Ollama pour la gestion locale de LLM, le chat et les embeddings au sein des clients MCP.
Ce qu'il fait
Ollama MCP connecte votre assistant IA à une instance locale d'Ollama, offrant un contrôle programmatique complet sur les LLM locaux. Il permet à l'IA de gérer les modèles, de générer des complétions et de créer des embeddings sans quitter l'interface de chat.
Outils
ollama_list: Liste les modèles locaux disponibles.ollama_show: Obtient des informations détaillées sur le modèle.ollama_pull: Télécharge des modèles depuis la bibliothèque Ollama.ollama_push: Pousse des modèles vers la bibliothèque.ollama_copy: Duplique des modèles existants.ollama_delete: Supprime des modèles du stockage.ollama_create: Crée des modèles personnalisés via un Modelfile.ollama_ps: Liste les modèles actuellement en cours d'exécution.ollama_generate: Génère des complétions de texte.ollama_chat: Chat interactif avec des modèles locaux.ollama_embed: Génère des embeddings de texte.ollama_web_search: Recherche sur le web via Ollama Cloud (nécessite une clé API).ollama_web_fetch: Récupère le contenu d'une page web via Ollama Cloud (nécessite une clé API).
Installation
Ajoutez à claude_desktop_config.json :
{
"mcpServers": {
"ollama": {
"command": "npx",
"args": ["-y", "ollama-mcp"]
}
}
}
Hôtes supportés
- Claude Desktop
- Windsurf
- Cursor
- Cline
Installation rapide
npx -y ollama-mcpInformations
- Tarification
- free
- Publié






