Actualité

DT36 INCYBER IA sous surveillance la confiance se mérite, même pour les IA



Les modèles de type LLM (Large Language Models) sont devenus des outils puissants mais ils représentent une cible privilégiée pour les cybercriminels. Parmi les risques majeurs : injections de prompt, manipulations logiques, et détournement d’usage, pouvant mener à des divulgations de données sensibles ou des comportement imprévus. L’architecture LEARN apporte une méthode robuste à la sécurisation des LLMs. La démonstration montrera comment une approche Zero Trust permet une adhérence à ces bonnes pratiques, notamment en contrôlant les risques liés aux injections de prompt.

Allez à la source

artia13

Depuis 1998, je poursuis une introspection constante qui m’a conduit à analyser les mécanismes de l’information, de la manipulation et du pouvoir symbolique. Mon engagement est clair : défendre la vérité, outiller les citoyens, et sécuriser les espaces numériques. Spécialiste en analyse des médias, en enquêtes sensibles et en cybersécurité, je mets mes compétences au service de projets éducatifs et sociaux, via l’association Artia13. On me décrit comme quelqu’un de méthodique, engagé, intuitif et lucide. Je crois profondément qu’une société informée est une société plus libre.