
Ollama MCP Bridge
Interface UIpar jonigl
Proxy API transparent ajoutant les capacités d'outils de serveurs MCP aux LLM Ollama.
Ce qu'il fait
Ollama MCP Bridge fournit une couche API transparente devant l'API Ollama, permettant aux LLM locaux d'accéder aux outils de plusieurs serveurs MCP de manière transparente. Il intercepte les requêtes /api/chat et gère la boucle d'exécution d'outils multi-tours entre le modèle et divers transports MCP.
Outils
Il s'agit d'un pont/proxy et ne fournit pas ses propres outils ; au lieu de cela, il expose tous les outils de tout serveur MCP configuré dans mcp-config.json (par exemple, filesystem, weather, ou serveurs personnalisés).
Installation
Ajoutez le pont à votre environnement local et configurez vos serveurs MCP dans mcp-config.json :
{
"mcpServers": {
"example-server": {
"command": "uvx",
"args": ["some-mcp-server"]
}
}
}
Exécutez via Docker ou pip : pip install ollama-mcp-bridge
Hôtes supportés
Confirmé pour les déploiements locaux d'Ollama et tout client pouvant pointer vers un point de terminaison API compatible Ollama.
Installation rapide
pip install ollama-mcp-bridgeInformations
- Tarification
- free
- Publié
- 5/11/2026
- étoiles





