Deux décisions récentes - l’une rendue par le Tribunal de Syracuse le 20 février 2026, l’autre par le Tribunal judiciaire de Périgueux le 18 décembre 2025 - contribuent au débat, très actuel, concernant les problèmes que les outils d’intelligence artificielle générative posent aux professionnels du droit.


Une affaire civile, un constat inattendu
La décision rendue par le Tribunal de Syracuse a pour objet un litige, en matière de location, dans lequel les défenses de la partie plaignante reposaient sur plusieurs références à la jurisprudence de la Cour de cassation, présentées avec un degré de précision formelle élevé : numéros d’arrêts, indications circonstanciées, et surtout des passages reproduits entre guillemets, comme des citations textuelles. C’est précisément ce niveau de précision qui a conduit le juge à procéder à une vérification. Les décisions invoquées ont été recherchées dans les bases de données officielles, puis confrontées aux extraits cités. Le résultat est net : les arrêts existaient, mais les passages qui leur sont attribués n’y figurent pas ; dans certains cas, ils ne correspondaient à aucune décision identifiable.
Un raisonnement par élimination
À partir de ce constat, le Tribunal – en écartant les explications les plus improbables (un dysfonctionnement des bases de données, d’une erreur matérielle ou de transcription ou d’une invention délibérée) retient l’explication la plus simple au regard des éléments disponibles : le recours à un outil d’intelligence artificielle générative, utilisé sans vérification des résultats produits. Le raisonnement du Tribunal trouve un fondement technique précis, qui mérite d’être formulé avec clarté. Comme le relève la décision elle-même :
Les systèmes d’intelligence artificielle générative ne savent ni ne se souviennent de quoi que ce soit ; ils se limitent à produire des séquences de texte statistiquement plausibles, sur la base de milliards de paramètres d’entraînement, sans avoir, en principe, accès à une base de connaissances vérifiée ou vérifiable.
Ce point, en apparence technique, est en réalité décisif. Pour le comprendre, il faut s’arrêter un instant sur le fonctionnement de ces modèles. Les systèmes dits « génératifs » sont entraînés sur d’immenses corpus de textes, au sein desquels ils apprennent à identifier des régularités : associations de mots, structures de phrases, enchaînements logiques typiques de certains discours, notamment juridiques. À partir de cet apprentissage, ils ne « recherchent » pas une information ; ils anticipent la suite la plus probable d’un énoncé. Autrement dit, lorsqu’une question leur est posée, ils ne consultent aucune source : ils produisent une réponse en calculant, à chaque étape, quel mot a le plus de chances de suivre le précédent, compte tenu du contexte. Ce mécanisme, répété des milliers de fois en quelques fractions de seconde, donne naissance à des textes cohérents, structurés et souvent convaincants. Mais cette cohérence est formelle. Le modèle n’a pas conscience de la véracité de ce qu’il produit. Il ne dispose d’aucun accès intrinsèque à une source qu’il pourrait vérifier, ni d’un mécanisme interne lui permettant de distinguer une information exacte d’une information simplement plausible.
Dans le domaine juridique, cela signifie qu’un modèle peut produire une formulation qui « ressemble » à de la jurisprudence en en adoptant le registre, la structure, la précision apparente précisément parce qu’il a été entraîné sur des milliers de décisions réelles, sans pour autant en restituer le contenu exact. Le biais ne produit pas une erreur aléatoire : il produit une erreur vraisemblable, ce qui la rend d’autant plus difficile à détecter. Il ne s’agit pas d’une erreur exceptionnelle ou accidentelle, mais d’un effet structurel du modèle : la génération de contenus qui présentent toutes les apparences de la rigueur - précision des références, structure argumentative, ton juridique - sans reposer sur une source identifiable. Dans le contexte juridique, cela se traduit de manière particulièrement tangible par la création de citations d’arrêts inexistants ou par l’attribution de formules à des décisions qui ne les contiennent pas. Dès lors, la difficulté n’est pas tant technique que méthodologique. Ces outils peuvent produire des raisonnements plausibles, parfois même pertinents, mais ils ne garantissent jamais, par eux-mêmes, la fiabilité des éléments sur lesquels ces raisonnements reposent. En d’autres termes, ils peuvent assister l’écriture du droit, mais non en assurer la vérification.
De la technologie à la responsabilité
Cette dimension technique conduit directement à une question juridique classique, mais renouvelée dans ses conditions d’exercice : celle de la responsabilité de l’avocat. Si l’intelligence artificielle ne « sait » pas mais « calcule », la responsabilité ne peut en aucun cas être transférée à l’outil. Elle demeure intégralement attachée à celui qui produit, valide et signe l’acte. Dans cette perspective, l’erreur ne tient pas à l’utilisation d’un système imparfait - ce qui serait, en soi, inévitable - mais à l’absence de contrôle sur le résultat produit. Le recours à un outil probabiliste, dépourvu de tout mécanisme interne de vérification, impose corrélativement une vigilance renforcée de la part du professionnel. Autrement dit, plus l’outil est performant dans la production de contenus plausibles, plus le risque d’erreur invisible est élevé et plus l’exigence de vérification doit être rigoureuse. Cette logique s’inscrit dans les principes traditionnels de la responsabilité professionnelle : l’avocat reste tenu d’une obligation de diligence et de compétence, qui inclut non seulement la construction du raisonnement, mais également la vérification des sources sur lesquelles il repose. Dans ce cadre, l’usage non critique de l’intelligence artificielle ne constitue pas une circonstance atténuante, mais au contraire un facteur d’aggravation : il ne s’agit pas d’une erreur isolée, mais d’un défaut méthodologique. Ce déplacement est décisif : l’erreur cesse d’être une simple faiblesse argumentative pour devenir un manquement aux obligations professionnelles, dans la mesure où elle procède d’un défaut de contrôle évitable. La décision du Tribunal de Syracuse redéfinit ainsi, de manière implicite mais très claire, le standard de diligence attendu de l’avocat : produire un raisonnement ne suffit pas ; encore faut-il être en mesure d’en garantir la fiabilité. C’est dans cette exigence, ancienne dans son principe mais renouvelée dans ses modalités, que réside l’apport le plus significatif de la décision.
Un signal français dans un mouvement international
La décision de Périgueux, rendue deux mois plus tôt, prolonge ce constat dans le contexte français. Dans un jugement du 18 décembre 2025 (n° 23/00452), le Tribunal judiciaire de Périgueux relève que plusieurs références jurisprudentielles invoquées n’existaient tout simplement pas, et invite explicitement les rédacteurs à vérifier que les citations issues de moteurs de recherche ou de l’intelligence artificielle ne relèvent pas d’« hallucinations ». Il s’agit, à ce jour, de la première décision judiciaire française à employer explicitement ce vocabulaire technique dans sa motivation : une prise de conscience claire du phénomène par la magistrature, et un signal fort à destination des professionnels du droit.
Ces deux affaires s’inscrivent dans une dynamique déjà bien observée à l’international. Aux États-Unis, des avocats ont été sanctionnés pour avoir produit des mémoires fondés sur des décisions fictives générées par ChatGPT (Mata v. Avianca, 2023). Au Royaume-Uni également, plusieurs juridictions ont relevé l’usage de citations inexistantes.
En France, si des signaux faibles existaient déjà - formulations stéréotypées, raisonnements approximatifs, standardisation manifestement algorithmique de certaines écritures, observable notamment en droit des marques tant en précontentieux que dans des procédures d’opposition ou de nullité - le jugement du 18 décembre 2025 constitue la première reconnaissance explicite, par un magistrat français, du risque lié aux hallucinations de l’intelligence artificielle. Là où, hier encore, les échanges opposaient des conseils construisant et confrontant des argumentations au service de la défense des intérêts de leurs clients, émergent aujourd’hui des interactions largement façonnées par des outils algorithmiques, générant davantage de confusion et d’insécurité juridique que de clarté ou de valeur ajoutée.
Conclusion
Ce que ces décisions nous disent, au fond, n’est pas nouveau dans son principe : la responsabilité professionnelle de l’avocat ne se délègue pas ni à un collaborateur négligent, ni à un algorithme complaisant. Ce qui est nouveau, en revanche, c’est la forme que prend désormais la faute.
L’intelligence artificielle générative ne ment pas : elle calcule. Elle produit ce qui est statistiquement vraisemblable, non ce qui est juridiquement exact.
Ces systèmes constituent indéniablement un levier d’accélération dans le domaine juridique, notamment pour les recherches documentaires et jurisprudentielles mais les hallucinations qui leur sont inhérentes, dans un domaine où l’exactitude des sources conditionne la crédibilité, la recevabilité et parfois l’issue du litige, font du contrôle humain une nécessité structurelle, et non une précaution optionnelle. Confondre vraisemblance et exactitude n’est plus une erreur technique excusable : c’est un manquement méthodologique. En nommant le phénomène, les juges de Syracuse et de Périgueux rappellent une évidence que la facilité des outils tend à faire oublier : l’intelligence artificielle peut transformer la pratique du droit, en améliorer la productivité et la réactivité ; elle ne remplacera cependant jamais l’esprit critique, la vérification des sources et la maîtrise du raisonnement juridique qui demeurent au cœur de la valeur ajoutée du professionnel. À l’heure où les outils génératifs se diffusent massivement, le signal envoyé par ces deux tribunaux invite les professionnels du droit à une utilisation raisonnée, encadrée et responsable de l’intelligence artificielle.

Sur le même sujet











































