Édition Milan

Quand l’intelligence artificielle peut générer des discriminations de genre

L’intelligence artificielle (AI) est devenue omniprésente dans notre quotidien. Mais cette transformation s’accompagne d’un risque majeur. En quoi l’AI peut-elle être un facteur de discrimination ? Analyse des défis juridiques.

touche AI dans un réseau électroniquetouche AI dans un réseau électronique
Unsplash
Écrit par Lablaw
Publié le 24 mars 2025

Peut-on confier à une machine la prise de décisions qui influencent notre quotidien? L’intelligence artificielle (AI) est omniprésente, intervenant dans des choix tels que l’octroi de crédits, l’accès aux services, l’embauche ou le licenciement. Mais cette transformation s’accompagne d’un risque majeur : la reproduction et l’amplification des biais existants, notamment en matière de genre. En quoi l’AI peut-elle être un facteur de discrimination ?

Comprendre la logique des algorithmes et les discriminations algorithmiques

L’AI ne discrimine pas intentionnellement, mais elle peut reproduire des biais existants dans les données sur lesquelles elle est entraînée. Ces biais génèrent des discriminations algorithmiques, qui sont presque toujours des discriminations indirectes, car les discriminations directes sont interdites par la loi. 

C'est ce qu'a illustré Amazon en 2018, lorsqu'un algorithme de recrutement a favorisé les candidats masculins au détriment des candidates féminines en raison de données biaisées, conduisant finalement à l'abandon du système. Les discriminations algorithmiques apparaissent principalement dans les algorithmes de machine learning (ML). Ces derniers apprennent à partir de données historiques et ajustent leurs décisions en fonction des modèles qu’ils identifient. Si ces données reflètent des inégalités passées, l’algorithme risque de les reproduire et même de les amplifier, sans que cela ne soit intentionnel.

Les algorithmes rule-based (RB), en revanche, suivent des règles explicites et produisent des résultats déterministes. Leur fonctionnement est transparent et prévisible, ce qui limite leur capacité à générer des biais, bien qu’ils puissent tout de même intégrer des règles discriminatoires si celles-ci sont définies dès leur conception.

Juridiquement, les discriminations directes, qui consistent à traiter différemment une personne en raison d’une caractéristique protégée comme le genre, sont explicitement interdites. Cependant, les biais algorithmiques relèvent généralement de la discrimination indirecte: ils sont fondés sur des critères en apparence neutres qui, dans leur application, créent un désavantage disproportionné pour certaines catégories de personnes, comme les femmes ou les minorités.

Le cadre juridique italien des discriminations de genre causées par les algorithmes

Comprendre le cadre juridique des discriminations de genre liées aux algorithmes implique d’analyser à la fois les principes qui encadrent leur fonctionnement et ceux qui régissent la lutte contre les discriminations (indirectes en particulier).
En Italie, il convient de partir de cette nouveauté : le projet de loi sur l'intelligence artificielle, approuvé par le Sénat le 20 mars 2025, établit des principes généraux fondés sur une approche anthropocentrique, le respect des institutions démocratiques, des droits fondamentaux et l'interdiction de la discrimination. Cette question s'inscrit dans un cadre normatif combinant législation et jurisprudence pour assurer une protection efficace. Le Code de l'égalité des chances (D.Lgs. 198/2006) interdit explicitement les discriminations de genre, tant directes qu'indirectes, notamment dans l'accès à l'emploi, les conditions de travail et l'évolution professionnelle. Ces dispositions sont particulièrement pertinentes face aux risques posés par les algorithmes, dont l’usage croissant dans les processus de recrutement et d’évaluation des performances peut renforcer des inégalités existantes sous couvert de neutralité. 

La jurisprudence italienne a déjà posé des principes fondamentaux pour identifier et sanctionner les discriminations indirectes, qui s’avèrent essentielles dans l’analyse des biais algorithmiques. L’arrêt n° 10328/2023 de la Cour de Cassation, par exemple, a reconnu qu’un critère en apparence neutre – l’évolution de carrière des travailleurs à temps partiel – pouvait constituer une discrimination indirecte, car il désavantageait de manière disproportionnée les femmes. Ce raisonnement est directement applicable aux systèmes algorithmiques, qui, en s’appuyant sur des données historiques biaisées, risquent de reproduire ces schémas discriminatoires. Sur le plan réglementaire, l’Italie applique aussi le Règlement (UE) 2024/1689 (AI Act), qui impose des obligations strictes aux systèmes algorithmiques classés comme à haut risque, notamment ceux utilisés dans le recrutement et la gestion des ressources humaines.

Vers une résilience algorithmique : stratégies et enjeux

Pour que la régulation et les principes juridiques soient réellement efficaces, ils doivent s’accompagner de stratégies permettant d’anticiper, de détecter et de corriger les biais algorithmiques avant qu’ils ne produisent des effets discriminatoires. Il est donc essentiel de mettre en place un cadre de surveillance continue, afin que les systèmes algorithmiques puissent évoluer vers des mécanismes capables de s’autocorriger et d’atténuer leurs biais de manière autonome. En France, cette préoccupation est au cœur des discussions récentes. Par exemple, un sommet international sur l'intelligence artificielle s'est tenu à Paris, réunissant des experts pour aborder les enjeux liés aux droits fondamentaux et à l'équité dans l'IA.

De plus, le Comité d'experts sur l'intelligence artificielle, l'égalité et la discrimination a récemment organisé une réunion visant à élaborer des recommandations pour assurer que l'IA respecte les principes d'égalité et évite les discriminations. Le monitoring et les audits post-déploiement permettent d’identifier d’éventuels biais qui n’étaient pas détectables au moment de la conception.

Le réajustement dynamique des algorithmes repose sur l’intégration de nouvelles données équilibrées afin de limiter la perpétuation des inégalités dans les modèles. Enfin, les boucles de rétroaction (feedback loops) assurent que les décisions algorithmiques soient continuellement analysées et révisées en fonction des retours d’expérience. Toutefois, il ne suffit pas d’un simple suivi : il est nécessaire d’aller au-delà du monitoring et de mettre en place de véritables garde-fous pour garantir une correction proactive des biais et une utilisation éthique des algorithmes. À la lumière des stratégies évoquées précédemment, il est nécessaire de formaliser ce que l’on pourrait appeler le concept de résilience algorithmique : la capacité d’un algorithme à s’adapter, s’optimiser et se corriger face aux discriminations émergentes qu’il ne pouvait anticiper à sa conception. Un algorithme résilient ne se contente pas de résister aux perturbations, il évolue activement pour garantir une justice algorithmique durable.

En conclusion l’AI, si elle est mal encadrée, peut devenir un vecteur puissant de discrimination. Toutefois, par une combinaison de régulation, de surveillance continue et d’adaptabilité algorithmique, il est possible d’en faire un levier d’égalité et de progrès. La résilience algorithmique constitue une approche prometteuse pour garantir une AI plus éthique et inclusive.
 

angelo quarto Beatrice RUSSO avocats francophones Milan

 

Flash infos