
Houtini LM
par houtini-ai
Déchargez les tâches LLM bornées de Claude Code vers des LLM locaux ou cloud pour économiser des jetons et éviter les limites de débit.
Ce qu'il fait
Houtini LM connecte Claude Code à des serveurs LLM locaux (LM Studio, Ollama) ou à des API cloud compatibles OpenAI (DeepSeek, Groq, Cerebras, OpenRouter). Il permet à Claude de déléguer le "travail ingrat" — comme la génération de boilerplate, la rédaction de messages de commit et l'exécution de revues de code — à des modèles moins coûteux ou gratuits, tout en conservant l'architecture de haut niveau et la planification sur le modèle de pointe.
Outils
chat: Déchargement de tâches générales avec des déclencheurs de planification pour inciter Claude à déléguer le travail.custom_prompt: Un prompt en trois parties (système, contexte, instruction) conçu pour réduire la dilution du contexte.code_task: Outil spécialisé pour l'analyse de code, la recherche de bugs et la génération de tests.code_task_files: Analyse plusieurs fichiers directement depuis le disque sans inonder la fenêtre de contexte du client MCP.embed: Génère des embeddings de texte via des points de terminaison compatibles OpenAI.discover: Vérification de l'état de santé et lecture des performances en temps réel (tok/s et TTFT).list_models: Liste tous les modèles disponibles sur le serveur avec des profils de capacités détaillés.stats: Affiche les économies de jetons cumulées et l'historique des performances par modèle.
Installation
Ajoutez à claude_desktop_config.json :
{
"mcpServers": {
"houtini-lm": {
"command": "npx",
"args": ["-y", "@houtini/lm"],
"env": {
"HOUTINI_LM_ENDPOINT_URL": "http://localhost:1234"
}
}
}
}
Hôtes supportés
- claude
Installation rapide
npx -y @houtini/lmInformations
- Tarification
- free





