
Dolphin MCP
par QuixiAI
Bibliothèque Python flexible et CLI pour interagir avec des serveurs MCP via n'importe quel fournisseur de LLM.
Ce qu'il fait
Dolphin MCP agit comme un pont universel entre divers fournisseurs de modèles de langage (LLM) et les serveurs MCP. Il permet aux utilisateurs d'interroger et d'interagir avec plusieurs serveurs MCP simultanément via une interface conversationnelle, rendant les outils exposés par ces serveurs disponibles pour les modèles d'OpenAI, Anthropic, Ollama et LMStudio.
Outils
- Découverte d'outils : Identifie et liste automatiquement les outils disponibles des serveurs MCP connectés.
- Routage Multi-Fournisseurs : Route les requêtes en langage naturel vers un fournisseur de LLM sélectionné et exécute les appels d'outils résultants vers les serveurs MCP.
- Interface Conversationnelle : Maintient le contexte sur plusieurs tours d'interaction via une CLI ou une bibliothèque programmatique.
Installation
Pour utiliser Dolphin MCP comme pont serveur/client, installez-le via pip :
pip install dolphin-mcp
Configurez ensuite vos serveurs dans mcp_config.json :
{
"mcpServers": {
"example-server": {
"command": "command-to-start-server",
"args": ["arg1"]
}
}
}
Hôtes supportés
- claude
- cursor
- codex
Installation rapide
pip install dolphin-mcpInformations
- Tarification
- free
- Publié
- 5/7/2026





