
de ai-toolkit142
Directives et modèles pour implémenter le prompt caching avec les API Anthropic afin de réduire les coûts de tokens d'entrée et la latence, incluant les TTL, les breakpoints et la mesure du taux de succès.
Ce skill documente des modèles pratiques pour implémenter le prompt caching lors du développement avec les API Anthropic (Claude). Il explique la mécanique du cache, les TTL recommandés, la manière de structurer les blocs mis en cache et les breakpoints, les anti-modèles provoquant des échecs de cache (cache misses), et les méthodes pour mesurer le taux de succès du cache (hit rate). Des exemples de code concrets en Python et TypeScript montrent comment marquer le contenu mis en cache et maintenir les données dynamiques en dehors des préfixes cachés.
Utilisez ce skill lorsque vous devez réduire drastiquement les coûts des tokens d'entrée de l'API ou diminuer la latence en mettant en cache les parties stables des prompts. Il est utile lors de l'intégration en production, de l'optimisation des performances, ou pour tout cycle à volume élevé où des préfixes stables se répètent (prompts système, définitions d'outils, documents de référence volumineux). À éviter pour les appels uniques ou les prompts très courts.
Probablement utilisé par des agents et des outils appelant les API Anthropic/Claude (Claude-opus/Haiku), et par des outils destinés aux développeurs (Claude Code, Cursor, intégrations Copilot) nécessitant des optimisations de coûts de tokens.
Cette compétence n'a pas encore été examinée par notre pipeline d'audit automatisé.
Glossaire du Langage Ubiquitaire
Extrait un glossaire du langage ubiquitaire de style DDD à partir d'une conversation : identifie les termes du domaine, signale les ambiguïtés, propose des termes canoniques et écrit le résultat dans UB
Memory Search
Search past coding sessions and observations using natural-language queries to retrieve decisions, notes, and context.