PR39 INCYBER Gérer les risques liés à l’IA générative Une approche technique pour les respons
L’adoption rapide des technologies d’IA générative dépasse les méthodologies de gestion des risques existantes. Les organisations déploient des solutions d’IA générative sans une compréhension suffisante des profils de risques uniques que ces systèmes introduisent. Alors que les cadres réglementaires évoluent pour aborder la gouvernance de l’IA, les responsables en cybersécurité font face à une pression croissante pour établir des pratiques robustes de gestion des risques liés à l’IA générative.
Dans cette présentation, nous proposerons une méthodologie fondée sur les données pour découvrir, analyser et quantifier les risques de l’IA générative à l’aide de cadres établis tels que OWASP, MITRE ATLAS et FAIR-AIR. Notre approche permet aux organisations de passer d’une sécurité ad-hoc de l’IA générative à une pratique structurée de gestion des risques, alignée sur les normes de l’industrie et les réglementations émergentes.
Les évaluations quantitatives des risques de l’IA générative, utilisant le cadre FAIR-AIR, permettent aux organisations de réaliser des évaluations des risques alignées sur leurs activités. En appliquant les principes FAIR aux scénarios d’IA générative, les responsables de la sécurité peuvent communiquer efficacement les risques en termes financiers, compréhensibles pour les dirigeants et les conseils d’administration, tout en s’assurant que des contrôles appropriés sont mis en place en fonction de l’exposition réelle au risque et non des menaces perçues.
Notre méthodologie, de la découverte à l’évaluation, couvre six domaines :
Inventaire et classification des systèmes d’IA
Analyse de l’architecture
Cartographie des vecteurs d’attaque
Développement de scénarios de risque
Évaluation quantitative des risques
Intégration de la gouvernance
Allez à la source