
de mkurman
Pré-entraînement contrastif langage-image (classification d'images zero-shot, similitude image-texte et récupération cross-modale).
OpenAI CLIP (Contrastive Language-Image Pre-training) apprend des représentations conjointes texte-image. Il permet la classification d'images zero-shot, la mesure de similitude image-texte, la recherche cross-modale et le légendage d'images sans entraînement spécifique à la tâche.
Inclut des exemples de code pour charger un modèle CLIP, prétraiter des images, tokeniser du texte et calculer des scores de similitude ou de classification.
pip install openai-clip
Cette compétence n'a pas encore été examinée par notre pipeline d'audit automatisé.