DeepSeek-R1-0528 : la start-up chinoise continue à se mesurer aux géants américains avec une mise à jour de son modèle phare
Des améliorations significatives dans la gestion des tâches de raisonnement complexes
La mise à jour s’appuie sur une exploitation plus efficace des ressources de calcul disponibles, combinée à une série d’optimisations algorithmiques mises en œuvre en post-formation. Ces ajustements se traduisent par une profondeur de réflexion accrue lors du raisonnement : alors que la version précédente consommait en moyenne 12 000 jetons par question dans les tests AIME, DeepSeek-R1-0528 en utilise désormais près de 23 000, avec à la clé une progression notable de la précision, de 70 % à 87,5 % sur l’édition 2025 du test.
- En mathématiques, les scores enregistrés atteignent 91,4 % (AIME 2024) et 79,4 % (HMMT 2025), frôlant ou dépassant les performances de certains modèles fermés comme o3 ou Gemini 2.5 Pro ;
-
En programmation, l’indice LiveCodeBench progresse de près de 10 points (de 63,5 à 73,3 %), et l’évaluation SWE Verified monte de 49,2 % à 57,6 % de succès;
-
En raisonnement général, le test GPQA-Diamant voit le score du modèle passer de 71,5 % à 81,0 %, tandis que pour le benchmark « Dernier examen de l’humanité », il a plus que doublé, passant de 8,5 % à 17,7 %.
Réduction des erreurs et meilleure intégration applicative
Parmi les évolutions notables apportées par cette mise à jour, on observe une réduction sensible du taux d’hallucination, un enjeu critique pour la fiabilité des LLMs. En diminuant la fréquence des réponses factuellement inexactes, DeepSeek-R1-0528 gagne en robustesse, notamment dans les contextes où la précision est indispensable.
Une attention croissante portée à la distillation
Le modèle qui en résulte, DeepSeek-R1-0528-
Une approche qui interroge sur la viabilité future des modèles massifs, face à des versions plus frugales mais mieux entraînées à raisonner.
« Nous pensons que la chaîne de pensée de DeepSeek-R1-0528 aura une importance significative à la fois pour la recherche académique sur les modèles de raisonnement et pour le développement industriel axé sur les modèles à petite échelle ».
Auteur :
Aller à la source