La technologie et l'organisation des entreprises vont plus vite que les règles et le droit, et ce n'est donc que récemment que les premières réglementations visant à protéger les travailleurs ont été mises en place. Tour d’horizon en Italie.


L'intelligence artificielle (IA) est déjà entrée dans le monde du travail et de nombreux systèmes ont été adoptés par les plus grandes entreprises pour optimiser le temps et les coûts, grâce à l'utilisation d'algorithmes qui améliorent l'organisation de l'entreprise.
L'IA est notamment utilisée dans différents domaines du travail, par la mise en place de systèmes décisionnels ou de contrôle qui peuvent affecter :
• le recrutement du personnel ;
• la gestion et la cessation du contrat de travail ;
• la répartition des tâches et des fonctions ou l'attribution de tâches spécifiques ;
• l'évaluation des performances ou le respect des obligations contractuelles par les employés.
Comme souvent, la technologie et l'organisation des entreprises vont plus vite que les règles et le droit, et ce n'est donc que récemment que les premières réglementations visant à protéger les travailleurs ont été mises en place.
Les premières interventions réglementaires
En particulier, en ce qui concerne le système juridique italien, une première réglementation concernant les systèmes automatisés décisionnels ou de contrôle a été introduite par le décret législatif 104/2022 (dit décret sur la transparence) qui, en application de la directive (UE) 2019/1152, a introduit une modification au point 1-bis du décret législatif n. 152/1997, imposant à l'employeur une obligation d'information des travailleurs (et des organisations syndicales) particulièrement étendue, qui comprend non seulement les objectifs et les finalités des systèmes automatisés utilisés par l'entrepreneur, mais aussi « la logique et le fonctionnement » de ces derniers et les « catégories de données et les principaux paramètres utilisés » pour leur programmation.
Dès le début, les interprètes se sont interrogés sur la portée de l'obligation en question, notamment en raison de son chevauchement évident avec d'autres dispositifs réglementaires importants - tels que ceux relatifs à la télésurveillance et à la violation de la vie privée - qui ont conservé leur autonomie conceptuelle et juridique même après l'entrée en vigueur du décret sur la transparence.
Quelques éclaircissements (à vrai dire peu nombreux) ont été apportés par le ministère du Travail qui, dans la circulaire n. 19/2022, sans offrir un tableau exhaustif des marges d'application des règles en question, a au moins exclu leur applicabilité dans le cas de l'utilisation d'outils automatisés pour l'enregistrement de la présence des employés à l’entrée ou à la sortie, mais a ensuite inséré un élément d'incertitude dans l'application de la règle, en ce qui concerne un autre aspect pertinent, celui relatif à l'ampleur de l'intervention humaine.
Selon le ministère, l'applicabilité des exigences d’information concernant l'existence de systèmes automatisés décisionnels et de contrôle existerait lorsque, bien que l'intervention humaine soit envisagée, elle n'est que « purement accessoire ».
La circulaire a donc introduit un élément d'appréciation très général, obligeant dans la pratique à une évaluation au cas par cas de l'importance de l'intervention humaine dans les processus automatisés.
Le Décret-loi n.48/2023
C'est précisément sur cet aspect que le décret-loi n. 48/2023 (dit "décret du 1er mai") est intervenu, en limitant les obligations d'information en question aux « systèmes de prise de décision ou de contrôle entièrement automatisés ».
L'ajout de l'adverbe "intégralement" a clairement affecté le champ d'application du nouvel article 1-bis du décret législatif n. 152/1997 : selon la nouvelle formulation réglementaire, en effet, tous les systèmes de décision et de contrôle dans lesquels il y a une contribution humaine, même limitée, mais qui est en tout cas de nature à exclure une capacité de décision (ou de contrôle) autonome de la part des moyens technologiques, peuvent être considérés comme exemptés de l'obligation de fournir des informations.
Cette approche semble conforme à l'article 22 du règlement (UE) n. 679/2016 (GDPR) dans la mesure où il accorde à la personne concernée qui fait l'objet d'un processus décisionnel automatisé "le droit d'obtenir une intervention humaine de la part du responsable du traitement", ainsi que d'exprimer son avis et de contester la décision prise par les moyens technologiques, tandis que le considérant n. 71 du GDPR, exige des responsables du traitement non seulement qu'ils fournissent les informations visées à l'article 13 du règlement (qui doivent également comprendre « des informations utiles sur la logique utilisée, ainsi que sur l'importance et les conséquences prévues de ce traitement pour la personne concernée »), mais aussi qu'ils prévoient des « garanties appropriées » visant à minimiser le risque d'erreurs et d'inexactitudes et à empêcher la perpétration d'éventuels effets discriminatoires à l'égard des personnes concernées.
En ce sens, le Décret 48/2023 semble donc avoir éliminé les marges d'appréciation induites par la circulaire ministérielle n. 19/2022, en limitant l'applicabilité des obligations de divulgation aux seuls cas où, dans le processus de décision ou de contrôle, il n'y ait aucune intervention humaine, ou tout au plus dans le cas d'une intervention humaine purement symbolique ou fictive.
Les interventions jurisprudentielles
Comme c'est souvent le cas, la jurisprudence apporte sa propre contribution en comblant les lacunes législatives par le biais de l'interprétation et en fournissant des indications au législateur pour qu'il introduise des règles nouvelles et plus claires.
C'est le cas, par exemple, de la Cour d'appel de Venise qui, dans son arrêt du 30 mars 2023, a déclaré illégitime un contrat de services logistiques dans lequel le service était organisé et géré par un logiciel, propriété de l’entreprise donneuse d’ordre, qui déterminait les rythmes et les méthodes de travail des employés de la coopérative contractante, préalablement identifiés par un système de reconnaissance vocale (auquel était associé un "code-barres").
Le Tribunal de Palerme (dans un arrêt du 3 avril 2023) a également déclaré que le non-respect de l'obligation d'informer les syndicats, prévue par le nouvel article 1-bis du décret législatif n. 152/1997, sur l'algorithme qui attribue les livraisons aux coursiers à vélo et sur l'explication des paramètres d'évaluation sur lesquels il est basé, constitue une conduite antisyndicale.
Le règlement UE sur l'IA
Les interventions législatives se limitent à l'établissement d'obligations de divulgation, dont la violation peut donner lieu à des sanctions administratives ou à des dommages et intérêts (qui restent toutefois difficiles à démontrer et à quantifier), tandis que la jurisprudence ne peut que se limiter à l'interprétation des règles existantes, en se référant à des cas spécifiques.
Il manque cependant une réglementation organique en la matière, qui peut fixer les obligations des fournisseurs et des exploitants de systèmes d'IA.
À cet égard, le 15 juin dernier, le Parlement européen a approuvé le premier règlement sur l'IA (AI Act), qui divise les systèmes d'intelligence artificielle en fonction de leur niveau de risque. Le degré de risque atteint est alors assorti de sanctions et de limitations allant de l'interdiction absolue à l'obligation de fournir une étude d'impact ou d'autres obligations et procédures.
Des discussions vont maintenant s'engager avec les gouvernements des États membres de l'UE pour parvenir à la version finale du règlement. L'objectif est d'achever le processus d'ici la fin de l'année 2023 et de disposer d'un cadre juridique qui permettra enfin une protection efficace des droits des personnes et en particulier des travailleurs.

Sur le même sujet
