L’intelligence artificielle génère de grandes opportunités, mais que se passe-t-il si le professionnel l’utilise en abusant de cette ressource ? Si l'avocat commet une erreur, qui est responsable ?


L’intelligence artificielle (ou « IA ») représente l'un des défis les plus importants pour la société contemporaine et pour toutes les professions intellectuelles (avocats, experts-comptables, notaires etc.). Mais si l'avocat commet une erreur en l’utilisant, qui est réellement responsable ?
L’impact de l’IA est déjà évident dans presque tous les domaines de la vie quotidienne, du loisir à la communication, ainsi que dans des secteurs très variés, en passant du commerce à la médecine, du marché financier à la robotique, des transports à la recherche scientifique.
Dans le monde du travail elle génère de grandes opportunités, surtout en termes de rapidité et de simplification, mais que se passe-t-il si le professionnel utilise l'intelligence artificielle sans aucun contrôle, en abusant de cette ressource ? Si l'avocat commet une erreur, qui est réellement responsable ?
Y a-t-il des obligations que les professionnels intellectuels doivent respecter envers le public auquel ils s'adressent ?
Dans cet article, on cherche à répondre à ces questions, surtout à la lumière de la récente législation italienne qui cherche d’encadrer l’utilisation de l’IA dans le domaine des professions libérales et de certains arrêts très intéressants, qui ont eu une approche différente (parfois plus sévère, parfois plus compréhensive) à l’égard de l’avocat qui a été « trompé » par l’IA.
La loi n. 132 de 2025 : l’IA doit être utilisée à l’appui de l’activité professionnelle
La loi n. 132 de 2025 pose un premier jalon sur l’utilisation de l’IA : en effet, l’article 13, paragraphe 1 de la loi dont on discute affirme de manière claire que « L'utilisation de systèmes d'intelligence artificielle dans les professions intellectuelles vise uniquement à exercer des activités instrumentales et de soutien à l'activité professionnelle, avec une prédominance du travail intellectuel faisant l'objet de la prestation. »
En d’autres termes, la loi prévoit expressément que l’IA doit être utilisée comme simple support à l’activité intellectuelle de l’avocat, mais sans jamais remplacer le travail intellectuel du professionnel.
La loi confirme deux points essentiels :
a) L’IA doit être instrumentale et subordonnée à la performance intellectuelle ;
b) La centralité de la personne, le professionnel étant seul responsable de la direction et de l'exécution de la mission qui lui a été confiée.
Dans la profession il est assez fréquent que l’avocat se sert de l’IA pour simplifier de manière considérable son travail : pensons, par exemple, à des activités « classiques » qui font partie de la vie d’un cabinet d’avocats, comme les recherches jurisprudentielles, l’analyse de dossiers très volumineux, ainsi que l’analyse de contrats et de ses clauses.
L’IA est désormais capable de générer en quelques minutes les réponses aux questions posées par le client, les résultats de la recherche jurisprudentielle ou d’identifier les clauses contractuelles à risque, en proposant une synthèse des points d’attention.
Trop facile, n'est-ce pas ? En fait, l’avocat devrait toujours « jeter un œil » attentif et efficace aux résultats élaborés par l’IA, qui sont souvent truffés » d'erreurs, comme de références jurisprudentielles inexistantes.
L’avocat a-t-il l’obligation d’informer le client du fait qu’il utilise l’IA ?
Oui. En fait, les avocats, les comptables, les notaires, ainsi que les employeurs, ont une obligation spécifique d’informer les clients (et, en ligne générale, le public) sur l’utilisation de l’IA dans leurs services.
Cette obligation d’information, en vigueur à compter du 10 Octobre dernier, est consacrée de façon extrêmement claire par l’article 11, paragraphe 2 de la loi n. 132 de 2025, qui prévoit que « L'employeur ou le donneur d'ordre est tenu d'informer le travailleur de l'utilisation de l'intelligence artificielle dans les cas et selon les modalités prévues à l'article 1-bis du décret législatif n° 152 du 26 mai 1997 ».
L’avocat qui utilise l’IA sans contrôler les résultats automatisés : à condamner ou à pardonner ?
La réponse à cette question n’est pas si évidente : en effet, la jurisprudence a adopté des approches complètement différentes à l’égard de l’avocat qui s’était servi de l’IA pour simplifier son travail mais sans effectuer aucun contrôle des résultats automatisés qui avaient été générés.
À cet égard, la Cour de Turin, par un arrêt très récent de ce septembre, a condamné l’avocat, qui avait rédigé un recours avec le soutien de l’IA, à payer le montant de € 500,00 en faveur de chacune des parties défenderesses, au sens de l’article 96, paragraphe 3 du code de procédure civile italien (Cour de Turin, chambre sociale, 16 septembre 2025).
En l’espèce, il s’agissait d’une opposition à une injonction de payer et aux titres sous-jacents, constitués de huit avis de débit.
La Cour de Turin, en fonction du Juge du travail, avait jugé le recours formé par l’avocat non fondé, parce que toutes les plaintes relatives au bien-fondé de la créance étaient exprimées « en termes tout à fait abstraits, sans rapport avec les titres spécifiques contestés et, pour la plupart, sans aucune pertinence ».
Le recours rédigé par l’avocat était constitué d’un « ensemble de citations normatives et jurisprudentielles abstraites, dépourvues d'ordre logique et en grande partie hors de propos, sans allégations concrètement référençables à la situation faisant l'objet du jugement ».
En d’autres termes, la Cour de Turin avait condamné l’avocat qui avait été « trompé » par l’IA de manière assez sévère, car le paragraphe 3 de l’article 96 du code de procédure civile italien sanctionne une conduite pouvant être objectivement qualifiée d’ « abus de procédure », tel que le fait d'avoir agi ou résisté de manière fallacieuse.
En revanche, la Cour de Florence a exprimé un avis différent, en adoptant une approche plus « souple » à l’égard de l’avocat qui avait inséré dans son acte de défense des références à des jurisprudences inexistantes, générées par un système d'IA (plus précisément, ChatGPT) (Cour de Florence, section spécialisée dans le domaine des entreprises, ordonnance du 14 mars 2025).
En l’espèce, il s’agissait d’un avocat qui, avec l'aide d'une collaboratrice, s'était appuyé sur un outil d'IA générative qui avait produit — en raison du phénomène bien connu d’« hallucination » (c'est-à-dire la création de contenus apparemment plausibles, mais en réalité sans fondement, que le système peut réitérer même à la suite de prompts successifs) — des décisions fictives mais présentées sous une forme plausible.
Cependant, la Cour de Florence avait considéré comme excusable la conduite de l’avocat, qui ne constituait pas un comportement dolosif ni une stratégie procédurale visant à induire en erreur le jugement.
La Cour de Florence a exclu l’applicabilité de l'article 96 du code de procédure civile italien, car la citation de jugements inventés semblait viser exclusivement à corroborer une argumentation déjà esquissée, et non à entraver l'enquête judiciaire.
En adoptant une autre approche moins indulgente, le Juge administratif italien a affirmé avec force que l’utilisation de systèmes d’IA ne dispense pas l'avocat de sa responsabilité quant aux documents signés et de son obligation de vérifier l'exactitude des sources (Tribunal administratif de Milan, cinquième section, 21 octobre 2025, n. 3348).
Si c’est la première fois que le système juridique italien a eu l’occasion, par ces arrêts très intéressants, de traiter le sujet de l’utilisation (ou plutôt de l’abus) de l’IA de la part de l’avocat, ce n’est pas un sujet totalement inconnu dans les autres systèmes juridiques étrangers.
Pensons, par exemple, au très « célèbre » cas américain des avocats Steven Schwartz et Peter LoDuca, sanctionnés en 2023 par le Tribunal de district de New York pour avoir produit devant le tribunal des précédents inexistants générés par l'IA, encourant une amende de 5 000 dollars et de graves sanctions disciplinaires pour leur conduite omissive et réticente à l'égard du juge.
En conclusion, l’avocat ne doit pas utiliser l’IA passivement, mais toujours avec une approche critique et surtout « humain », afin de ne pas compromettre l'indépendance et la qualité de sa prestation professionnelle.
Sur le même sujet







































