Retour à Llama 3.2
Meta's 11B multimodal Llama 3.2 — the first vision-capable Llama model, supporting image understanding with 128K context.
131K tokensGratuit / Poids ouvertsimageTransformerLlama 3.2 Community
Aucun score de benchmark disponible pour ce modèle.