Actualité

DeepSeek-R1-0528 : la start-up chinoise continue à se mesurer aux géants américains avec une mise à jour de son modèle phare

Alors que les spéculations allaient bon train autour du prochain lancement de DeepSeek R2, c’est finalement une mise à jour du modèle R1 que la start-up chinoise éponyme a annoncé ce 28 mai dernier. Baptisée DeepSeek-R1-0528, cette version renforce les capacités de R1 dans des domaines-clés tels que le raisonnement, la logique, les mathématiques et la programmation. Désormais, les performances de ce modèle open source publié sous licence MIT se rapprochent de celles des modèles phares o3 d’Open AI et Gemini 2.5 Pro de Google.

Des améliorations significatives dans la gestion des tâches de raisonnement complexes

La mise à jour s’appuie sur une exploitation plus efficace des ressources de calcul disponibles, combinée à une série d’optimisations algorithmiques mises en œuvre en post-formation. Ces ajustements se traduisent par une profondeur de réflexion accrue lors du raisonnement : alors que la version précédente consommait en moyenne 12 000 jetons par question dans les tests AIME, DeepSeek-R1-0528 en utilise désormais près de 23 000, avec à la clé une progression notable de la précision, de 70 % à 87,5 % sur l’édition 2025 du test.

  • En mathématiques, les scores enregistrés atteignent 91,4 % (AIME 2024) et 79,4 % (HMMT 2025), frôlant ou dépassant les performances de certains modèles fermés comme o3 ou Gemini 2.5 Pro ;
  • En programmation, l’indice LiveCodeBench progresse de près de 10 points (de 63,5 à 73,3 %), et l’évaluation SWE Verified monte de 49,2 % à 57,6 % de succès;

  • En raisonnement général, le test GPQA-Diamant voit le score du modèle passer de 71,5 % à 81,0 %, tandis que pour le benchmark « Dernier examen de l’humanité », il a plus que doublé, passant de 8,5 % à 17,7 %.

Réduction des erreurs et meilleure intégration applicative

Parmi les évolutions notables apportées par cette mise à jour, on observe une réduction sensible du taux d’hallucination, un enjeu critique pour la fiabilité des LLMs. En diminuant la fréquence des réponses factuellement inexactes, DeepSeek-R1-0528 gagne en robustesse, notamment dans les contextes où la précision est indispensable.

La mise à jour introduit également des fonctionnalités orientées vers l’usage en environnement structuré, notamment la génération directe de sorties au format JSON et la prise en charge élargie de l’appel de fonctions. Ces avancées techniques simplifient l’intégration du modèle dans des workflows automatisés, des agents logiciels ou des systèmes back-end, sans nécessiter de lourds traitements intermédiaires.

Une attention croissante portée à la distillation

En parallèle, l’équipe de DeepSeek a entamé une démarche de distillation des chaînes de pensée vers des modèles plus légers, pour les développeurs ou chercheurs disposant d’un matériel limité. DeepSeek-R1-0528 qui compte 685 B (milliards) paramètres, a ainsi été utilisé pour post-entraîner Qwen3 8B Base. 

Le modèle qui en résulte, DeepSeek-R1-0528-Qwen3-8B, parvient à égaler des modèles open source bien plus volumineux sur certains benchmarks. Avec un score de 86,0 % sur AIME 2024, il dépasse non seulement celui de Qwen3 8B de plus de 10,0 % et mais égale les performances de Qwen3-235B-thinking.

Une approche qui interroge sur la viabilité future des modèles massifs, face à des versions plus frugales mais mieux entraînées à raisonner.

« Nous pensons que la chaîne de pensée de DeepSeek-R1-0528 aura une importance significative à la fois pour la recherche académique sur les modèles de raisonnement et pour le développement industriel axé sur les modèles à petite échelle ».

Auteur :

Aller à la source

artia13

Depuis 1998, je poursuis une introspection constante qui m’a conduit à analyser les mécanismes de l’information, de la manipulation et du pouvoir symbolique. Mon engagement est clair : défendre la vérité, outiller les citoyens, et sécuriser les espaces numériques. Spécialiste en analyse des médias, en enquêtes sensibles et en cybersécurité, je mets mes compétences au service de projets éducatifs et sociaux, via l’association Artia13. On me décrit comme quelqu’un de méthodique, engagé, intuitif et lucide. Je crois profondément qu’une société informée est une société plus libre.

artia13 has 4485 posts and counting. See all posts by artia13