
de openclaw-nim-skill12
Appelez des LLM hébergés par NVIDIA NIM depuis OpenClaw pour décharger les tâches lourdes et économiser les jetons de l'agent principal.
Ce skill intègre OpenClaw à la plateforme NIM de NVIDIA, permettant à l'agent d'appeler des modèles externes (GLM-5, Kimi, Llama 3.1, etc.) via une clé nvapi. Il encapsule les modèles d'utilisation pour lister les modèles disponibles et les invoquer avec un prompt, aidant ainsi les agents à déléguer des tâches spécifiques à des modèles spécialisés tout en préservant le budget de jetons de l'agent principal.
Utilisez-le lorsque vous devez effectuer des inférences sur des modèles hébergés sur NVIDIA NIM — pour des tâches nécessitant des capacités de modèles spécifiques (ex: génération de code, raisonnement multilingue, travaux à large contexte) ou lorsque vous souhaitez distribuer la charge loin de l'agent primaire. Adapté pour l'inférence par lot, les appels de modèles ad hoc ou le test de différents alias de modèles.
python3 scripts/nim_call.py list et python3 scripts/nim_call.py <model_alias> "<prompt>".Agents capables d'exécuter des scripts d'aide Python ou des commandes shell (OpenClaw main, agents CLI). Probablement compatible avec tout agent capable d'exécuter des sous-processus ou d'appeler des API de modèles basées sur HTTP.
Cette compétence n'a pas encore été examinée par notre pipeline d'audit automatisé.