DT36 INCYBER IA sous surveillance la confiance se mérite, même pour les IA
Les modèles de type LLM (Large Language Models) sont devenus des outils puissants mais ils représentent une cible privilégiée pour les cybercriminels. Parmi les risques majeurs : injections de prompt, manipulations logiques, et détournement d’usage, pouvant mener à des divulgations de données sensibles ou des comportement imprévus. L’architecture LEARN apporte une méthode robuste à la sécurisation des LLMs. La démonstration montrera comment une approche Zero Trust permet une adhérence à ces bonnes pratiques, notamment en contrôlant les risques liés aux injections de prompt.
Allez à la source