Édition internationale
Radio les français dans le monde
--:--
--:--

Adoption de l’AI Act : l’UE règlemente l’intelligence artificielle

Il s’agit du premier texte au monde portant un encadrement complet de l’intelligence artificielle. Son but notamment : éviter de porter atteinte aux droits fondamentaux des individus.

touche AI dans un réseau électroniquetouche AI dans un réseau électronique
Écrit par CastaldiPartners
Publié le 11 novembre 2024, mis à jour le 12 novembre 2024

L’intelligence artificielle fait désormais partie de la vie quotidienne : les applications de navigation nous indiquent les itinéraires les plus rapides en temps réel, les réseaux sociaux et les plateformes de streaming utilisent un algorithme pour suggérer le contenu à consulter, les différents chatbots réalisent en quelques secondes les tâches les plus diverses, à la fois analytiques (recherche et traitement de données) et génératives (élaboration de textes ou dessins).

Ce n’est que le début. L’intelligence artificielle est en train de révolutionner le monde, rendant les services que nous utilisons de plus en plus efficaces et personnalisés. Néanmoins, nous ne pouvons pas ignorer le revers de la médaille. Une utilisation non règlementée de l’intelligence artificielle risque de produire des inégalités dans les processus automatisés et de porter atteinte aux droits fondamentaux des individus, allant jusqu’à mettre en danger la sécurité et la vie privée.

 

Que contient l’AI Act  ?

Pour répondre à ces questions, l’Union européenne a récemment adopté l’AI Act (Règlement 2024/1689 du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle). Il s’agit du premier texte au monde portant un encadrement complet de l’intelligence artificielle. L’UE est à l’avant-garde dans ce domaine, à la recherche d’un équilibre entre la promotion du développement de l’intelligence artificielle et la protection des citoyens contre les risques pouvant en découler. L’objectif est d’encourager la diffusion d’une intelligence artificielle sûre, fiable et éthique, axée sur le respect des valeurs de l’UE et des droits fondamentaux des individus.

 

Une classification des risques liés à l’AI

C’est précisément pour trouver un juste milieu entre une réglementation excessive (qui découragerait les investissements) et l’absence totale de règles (qui entraînerait des distorsions ou des discriminations) que l’UE adopte une approche souple, fondée sur l’évaluation des dangers liés à l’utilisation des systèmes d’intelligence artificielle. En effet, le règlement distingue quatre types de risques (inacceptable, haut, spécifique et minimal) et prévoit un cadre réglementaire pour chaque catégorie.

 

- Risque inacceptable : interdiction à tutelle des valeurs de l’UE

Le règlement interdit certains systèmes d’intelligence artificielle parce qu’ils sont considérés comme ouvertement contraires aux valeurs de l’Union européenne ou aux droits fondamentaux des citoyens.

Ces utilisations comprennent notamment :
-    la manipulation du comportement humain par l’utilisation de techniques subliminales ou l’exploitation de la vulnérabilité ;
-    l’attribution d’une note sociale ;
-    le profilage d’individus afin de prédire le risque qu’ils commettent des infractions pénales ;
-    le moissonnage non ciblé d’images faciales pour la création ou le développement de bases de données ;
-    la reconnaissance des émotions au travail ou dans les établissements d’enseignement ;
-    la catégorisation biométrique pour tirer des conclusions sur les opinions politiques, l’appartenance syndicale, les croyances religieuses ou l’orientation sexuelle ;
-    l’identification biométrique en temps réel dans les espaces accessibles au public (sauf exceptions).

 

- Haut risque : un encadrement spécifique pour garantir la transparence

Bien qu’ils ne soient pas interdits, d’autres systèmes considérés comme potentiellement dangereux sont règlementés. Il s’agit des utilisations de l’intelligence artificielle dans des secteurs tels que :
-    les infrastructures critiques (ex. : trafic routier, fourniture d’eau, de gaz, de chauffage ou d’électricité) ;
-    l’éducation et la formation professionnelle ;
-    l’emploi et la gestion des travailleurs (ex. : filtrage des candidatures, évaluation des candidats) ;
-    l’accès aux services essentiels (ex. : soins de santé) ;
-    l’assurance-vie ou l’assurance maladie ;
-    le contrôle aux frontières ;
-    la justice ;
-    les processus démocratiques ;
-    la reconnaissance des émotions, l’identification et la catégorisation biométrique (lorsque cela est autorisé).

Avant d’être mis sur le marché de l’UE, ces systèmes devront se conformer aux obligations imposées par le règlement, qui visent à atténuer les risques découlant de leur utilisation et à en garantir qualité, transparence et exactitude.

 

- Risque spécifique : obligation d’information

Même si elles ne sont pas considérées comme présentant un haut risque, certaines utilisations de l’intelligence artificielle seront soumises à des obligations de transparence. Ainsi, les systèmes potentiellement manipulatifs, tels que les chatbots (logiciels simulant des conversations humaines) ou les deepfakes (programmes visant à créer photos, vidéos et/ou audios), pourront être employés, à condition que les utilisateurs soient informés de l’origine artificielle des résultats fournis.

 

- Risque minimal : respect facultatif d’un code de conduite

Pour les systèmes que l’Union européenne ne considère pas dangereux, aucune obligation ne sera imposée. En revanche, sera adopté un code de conduite que chaque fournisseur sera libre de suivre.

 

Les enjeux de l’AI Act

Le règlement commencera à s’appliquer progressivement :
-    les systèmes d’intelligence artificielle présentant un risque inacceptable seront interdits à partir du 2 février 2025 ;
-    les règles relatives aux systèmes d’intelligence artificielle à usage général s’appliqueront à partir du 2 août 2025 ;
-    le reste des dispositions du texte réglementaire sera effectif à partir du 2 août 2026 ;
-    à l’exception des obligations pour tous les systèmes à haut risque, qui seront définitivement imposées à partir du 2 août 2027.

L’entrée en vigueur différée, nécessaire pour permettre aux fournisseurs de s’adapter au nouveau paysage réglementaire, révèle le premier défi de l’ambitieux AI Act : le règlement sera-t-il capable de suivre le tourbillon du progrès technologique, ou risquera-t-il de devenir obsolète avant d’être pleinement mis en œuvre ? Pour éviter ce risque, le règlement habilite d’ores et déjà la Commission à intervenir au moyen d’actes délégués et d’actes d’exécution pour adopter les ajustements techniques appropriés (comme la mise à jour de la liste des systèmes à haut risque), sans qu’il ne soit nécessaire de passer par la procédure législative ordinaire.

Un autre défi qui s’impose n’est pas temporel, mais spatial : l’intelligence artificielle, comme toute innovation informatique, a une dimension astatique et elle est susceptible de se développer en dehors des contraintes géographiques de l’Union européenne. Face à cette difficulté physiologique, l’UE entretient un dialogue constant avec ses partenaires internationaux.

L’intelligence artificielle n’est pas l’avenir, elle est présente. Le seul moyen d’assurer son développement sans mettre en péril les droits des citoyens est de fournir un cadre réglementaire complet. C’est l’approche de l’Union européenne, championne du progrès non seulement technologique, mais aussi éthique et social.

Giulio Berrino

 

banner castaldi

 

Flash infos

    Pensez aussi à découvrir nos autres éditions