Blog Cyberjustice – L'intelligence artificielle : entre progrès et risques pour les droits fondamentaux
À l’ère du numérique, l’intelligence artificielle (IA) s’impose comme un levier majeur de transformation dans de nombreux secteurs. Si ses apports sont incontestables, cette avancée suscite de sérieuses interrogations quant au respect des droits fondamentaux, notamment en matière de non-discrimination. Derrière l’apparente objectivité des algorithmes, subsiste un risque réel de reproduction, voire d’amplification, des biais sociaux existants, appelant à une vigilance accrue quant à l’équité de leur utilisation.
Biais algorithmiques : des dérives avérées
Les biais discriminatoires dans les systèmes d’IA ne relèvent plus de la simple hypothèse théorique : ils se manifestent concrètement et compromettent l’égalité de traitement.
Aux États-Unis, l’outil COMPAS, utilisé pour évaluer le risque de récidive, a révélé des préjugés raciaux en surestimant les risques pour les Afro-Américains, comme l’a démontré l’enquête menée par ProPublica en 2016. De même, en 2015, Amazon a développé un système de recrutement qui s’est avéré défavoriser les candidatures féminines, reflétant les biais présents dans les données d’apprentissage.
En Europe, le recours à l’IA a également suscité de vives controverses. Aux Pays-Bas, en 2022, l’administration fiscale a été mise en cause pour avoir employé un algorithme discriminatoire, ciblant injustement des familles issues de l’immigration sur la base de critères tels que la consonance des noms ou la double nationalité. Ces exemples illustrent les risques d’une IA insuffisamment encadrée, susceptible de devenir un puissant vecteur d’inégalités sociales.
Un encadrement européen structuré autour de la gestion des risques
Pour répondre à ces enjeux, un cadre législatif européen a été instauré avec l’adoption, en 2024, du règlement sur l’intelligence artificielle. Fondé sur une approche par les risques, ce texte distingue plusieurs catégories de systèmes, parmi lesquels les systèmes à haut risque et ceux à risque inacceptable.
Bien que le terme « discrimination » ne soit pas explicitement mentionné, le règlement insiste sur la nécessité de prévenir les biais dès la phase de conception, en particulier dans des domaines sensibles tels que le recrutement. L’automatisation des processus de sélection, si elle n’est pas rigoureusement encadrée, peut en effet introduire de nouvelles formes d’inégalités. En classant ces systèmes comme à haut risque, le règlement impose une surveillance stricte de leur déploiement ainsi qu’une exigence élevée en matière de qualité des données utilisées, afin de garantir un traitement équitable des candidats.
La mise en œuvre : un défi de taille
Malgré son ambition, la mise en œuvre du règlement se heurte à plusieurs défis. Le premier tient aux ressources nécessaires pour assurer une application effective des dispositions : sans moyens suffisants pour contrôler et accompagner les acteurs, les objectifs poursuivis risqueraient de demeurer sans effet concret. La mise en conformité représente également un coût non négligeable, en particulier pour les petites structures, ce qui pourrait entraver leur capacité à innover.
Par ailleurs, l’opacité de nombreux systèmes d’IA, souvent qualifiés de « boîtes noires », rend leur contrôle difficile. Bien que le règlement impose certaines exigences de transparence, l’accès aux logiques de décision algorithmique reste limité, freinant ainsi la pleine effectivité du cadre législatif.
Mureille Moussa
Master 2 Cyberjustice 2024/2025
Sources :
https://shs.cairn.info/revue-reseaux-2023-4-page-71?lang=fr
https://www.europarl.europa.eu/doceo/document/O-9-2022-000028_FR.html
https://www.defenseurdesdroits.fr/algorithmes-intelligence-artificielle-et-services-publics-2024
Auteur :
Aller à la source