Ce 29 avril 2025, Meta était au coeur des discussions. Et pour cause : la firme a tenu sa première conférence développeurs sur l’intelligence artificielle, LlamaCon. L’objectif de cet événement ? En mettre plein les yeux aux développeurs en leur montrant toutes les capacités de ses modèles Llama, notamment les derniers modèles Llama 4 Scout et Llama 4 Maverick publiés en début de mois. La première annonce clé est probablement la sortie d’une API dédiée.
Une API pour faire la bascule depuis les modèles GPT d’OpenAI
Disponible en version « limited preview » gratuite, l’API Llama permet de créer une clé API en un seul clic et propose des aires de jeux interactives pour explorer différents modèles de Llama, y compris les modèles cités plus haut. « Lorsque vous êtes prêt à créer votre application, nous fournissons un SDK léger en Python et Typescript. L’API Llama est également compatible avec le SDK OpenAI, ce qui facilite la conversion des applications existantes ». Meta dévoile doucement son jeu : concurrencer OpenAI et ses modèles GPT.
Dans le cadre de cette version, des outils de fine-tuning d’évaluation sont disponibles dans l’API, notamment pour créer des versions personnalisées de Llama 4, mais aussi de son modèle Llama 3.3 8B. Bien évidemment, la firme tient à rassurer tout le monde : la sécurité reste la priorité dans tout développement. « Nous n’utilisons pas vos invites ou les réponses de vos modèles pour entraîner nos modèles d’IA. Lorsque vous êtes prêt, les modèles que vous construisez sur l’API Llama vous appartiennent et vous pouvez les emmener avec vous là où vous voulez les héberger, et nous ne les gardons pas enfermés sur nos serveurs », se targue Meta.
L’inférence accélère avec Cerebras et Groq
Autre annonce phare de cette conférence : la signature d’un partenariat avec Cerebras et Groq pour accélérer sur la partie inférence des modèles en utilisant l’API Llama. Ainsi, un accès expérimental aux modèles Llama 4 alimentés par Cerebras et Groq est désormais disponible sur demande. Avec, les développeurs peuvent expérimenter et prototyper des cas d’utilisation avant de passer à l’échelle avec le fournisseur de leur choix.
Pour mémoire, Cerebras développer des superpuces dédiées à l’intelligence artificielle venant alimenter des supercalculateurs, à commencer par le sien. Récemment, la pépite de Sunnyvale s’est fait remarquer en décrochant un contrat avec l’agence des projets de recherche avancée de défense (DARPA) qui veut construire « le premier supercalculateur photonique au monde à l’échelle d’une tranche, permettant des applications militaires et commerciales jusqu’alors inaccessibles ».
La sécurité, point phare de cette conférence
Alors que Meta a récemment passé la barre du milliard de téléchargements pour Llama – un peu plus de deux ans après son lancement – le géant des réseaux sociaux doit prouver qu’il ne fait pas que de l’IA pour l’IA, mais qu’il est profondément attaché à la sécurité des modèles et des applications qui en découlent. En ce sens, la firme a lancé une série d’outils de protection pour Llama ainsi que des solutions basées sur l’IA.
Ainsi, les développeurs peuvent désormais accéder à Llama Guard 4, une protection personnalisable qui prend en charge les protections pour la compréhension du texte et de l’image. Llama Firewall est quant à lui un outil de garde-fou qui aide à construire des systèmes d’IA sécurisés en détectant et en prévenant les risques tels que l’injection rapide, le code non sécurisé et les interactions risquées du plug-in LLM.
En parallèle, Meta publie deux nouvelles versions de Llama Prompt Guard : Prompt Guard 2 86M, qui améliore les performances en matière de détection de jailbreak et d’injection d’invite, et Prompt Guard 2 22M, une version plus compacte et plus rapide qui permet de réduire la latence et les coûts de calcul jusqu’à 75% par rapport au modèle 86M, avec des compromis de performances minimes.
Enfin, il publie CyberSecEval 4, sa dernière série de tests de cybersécurité pour les systèmes d’IA qui comprend une évaluation CyberSOC développée avec CrowdStrike, ainsi qu’AutoPatchBench, un benchmark qui évalue la capacité de Llama et d’autres systèmes d’IA à corriger automatiquement les vulnérabilités de sécurité du code natif avant qu’elles ne soient exploitées. Pour compléter son action, Meta lance également le programme Llama Defenders « pour aider les entreprises partenaires et les développeurs à accéder à une variété de solutions d’IA ouvertes, à accès anticipé et fermées pour répondre à différents besoins de sécurité ».
Auteur :
Aller à la source