
de megacode75
Exécutez des audits de sécurité pilotés par RLM et respectueux de la confidentialité sur de grands dépôts .NET, produisant des conclusions priorisées et des conseils de remédiation exploitables.
Exécute un audit de sécurité piloté par outil, basé sur un modèle lié au dépôt (RLM - Reinforcement/Repository-Linked Model) pour les bases de code .NET héritées et volumineuses. Ce skill orchestre audit.py pour scanner les dépôts sans charger l'intégralité du code dans le contexte du modèle, produisant un rapport de sécurité lisible (security_audit_report.md) et des artefacts machine (métadonnées et manifeste) avec des preuves au niveau du fichier/ligne et des corrections concrètes. Il inclut des paramètres de réglage pour les itérations du planificateur, les limites de jetons/sortie, les limites de charge utile des outils et les délais d'expiration du runtime, permettant aux audits de s'adapter à des dépôts massifs.
Utilisez ce skill lorsque vous avez besoin d'une revue de sécurité automatisée et respectueuse de la confidentialité d'un grand dépôt (legacy .NET) dans les cas suivants : vous ne pouvez pas ou ne voulez pas envoyer tout le dépôt à un LLM, vous avez besoin de conclusions priorisées avec des preuves précises (fichier/ligne), ou vous devez ajuster les limites de runtime/itération pour éviter les blocages et les troncatures. Idéal pour les audits de base, les cycles de triage et les vérifications de régression après des modifications de dépendances ou de build.
audit.py dans le dépôt (les instructions font référence à l'exécution de AUDIT_VERBOSE=1 python audit.py --source-root <repo-path>) — note : has_scripts=false lors de la récupération, mais le skill documente le script d'audit.Idéalement utilisé par des agents disposant de capacités d'orchestration shell/CLI et d'outils (style Codex/Copilot ou agents OpenClaw capables d'exécuter des scripts d'audit et de gérer des points de terminaison de modèles locaux).
Cette compétence n'a pas encore été examinée par notre pipeline d'audit automatisé.