DT36 INCYBER IA sous surveillance : la confiance se mérite, même pour les IA !

DT36 INCYBER IA sous surveillance : la confiance se mérite, même pour les IA !



Les modèles de type LLM (Large Language Models) sont devenus des outils puissants mais ils représentent une cible privilégiée pour les cybercriminels. Parmi les risques majeurs : injections de prompt, manipulations logiques, et détournement d’usage, pouvant mener à des divulgations de données sensibles ou des comportement imprévus. L’architecture LEARN apporte une méthode robuste à la sécurisation des LLMs. La démonstration montrera comment une approche Zero Trust permet une adhérence à ces bonnes pratiques, notamment en contrôlant les risques liés aux injections de prompt.

Allez à la source