Retour à Zephyr
Hugging Face's 7B DPO-tuned chat model — Mistral-based with strong alignment and helpfulness for its size.
33K tokensGratuit / Poids ouvertsTransformerMIT
Aucun score de benchmark disponible pour ce modèle.
Hugging Face's 7B DPO-tuned chat model — Mistral-based with strong alignment and helpfulness for its size.
Aucun score de benchmark disponible pour ce modèle.