Retour à Phi 1
Microsoft's 1.3B Phi-1.5 model — trained on synthetic 'textbook quality' data, outperforms much larger models on reasoning tasks.
2K tokensGratuit / Poids ouvertsTransformerMIT
Aucun score de benchmark disponible pour ce modèle.
Microsoft's 1.3B Phi-1.5 model — trained on synthetic 'textbook quality' data, outperforms much larger models on reasoning tasks.
Aucun score de benchmark disponible pour ce modèle.