Retour à Jamba
AI21 Labs' 52B hybrid SSM-Transformer model — Mamba + MoE architecture with 256K context and exceptional throughput.
256K tokensGratuit / Poids ouvertsMoEApache 2.0
Aucun score de benchmark disponible pour ce modèle.
AI21 Labs' 52B hybrid SSM-Transformer model — Mamba + MoE architecture with 256K context and exceptional throughput.
Aucun score de benchmark disponible pour ce modèle.