À retenir
- Les IA généralistes inventent en moyenne 1 référence juridique sur 3 — numéros d'arrêts, articles de loi, dates.
- L'hallucination n'est pas un bug réparable : c'est une conséquence directe de la manière dont un LLM produit du texte.
- Consia contourne le problème en interrogeant Légifrance et Judilibre en direct à chaque question, puis en affichant les sources brutes à côté de la réponse.
- Les cartes de sources officielles font foi. En cas de divergence avec le texte de l'IA, c'est la carte qui prévaut.
Le problème : quand une IA invente une jurisprudence
Si vous avez déjà demandé à ChatGPT, Claude ou Gemini de vous citer un arrêt de la Cour de cassation sur un point précis, vous avez probablement observé un schéma familier. La réponse arrive, bien structurée, avec un numéro de pourvoi qui a l'air plausible, une date qui colle au sujet, une chambre cohérente.
Sauf qu'en allant vérifier sur Légifrance ou sur Judilibre, cet arrêt n'existe pas.
Ce n'est pas marginal. Des études répétées depuis 2023 — dont celle de l'Université de Stanford sur les modèles les plus récents — montrent qu'entre 17 % et 58 % des références juridiques produites par une IA généraliste sont fabriquées : numéros inventés, citations déformées, attributions à la mauvaise juridiction, dates imaginaires.
Pourquoi une IA invente-t-elle des arrêts ?
Comprendre la cause permet de comprendre pourquoi ce n'est pas un bug qu'on pourrait corriger dans la prochaine version.
Un grand modèle de langage (LLM) ne consulte pas de base de données quand il répond. Il ne va pas chercher la réponse dans une bibliothèque. Il produit du texte un mot à la fois, en choisissant à chaque étape le mot le plus probable statistiquement, au regard de son entraînement sur des milliards de textes.
Quand vous demandez « cite-moi un arrêt récent sur la prescription des actions en nullité », le modèle n'a pas accès à Judilibre. Il a appris, pendant son entraînement, que les arrêts français ont une forme : "Cass. civ. [date], n° [numéro]". Il connaît à peu près la grammaire du sujet. Il produit donc un texte qui ressemble à un arrêt. Mais il n'a aucun moyen de vérifier si la référence existe vraiment.
Pour une IA, un vrai numéro de pourvoi et un numéro inventé sont aussi plausibles l'un que l'autre — tant que la forme est correcte.
Ce que les éditeurs ont essayé
Plusieurs approches ont été tentées :
- Fine-tuner le modèle sur le corpus juridique — réduit le taux d'erreur, mais ne le supprime pas. Le modèle continue à générer, pas à consulter.
- Ajouter une couche de vérification a posteriori — mais si l'IA invente
le numéro
24-11.892, rien n'indique qu'elle est consciente de l'invention. - Limiter à des cas très restreints — utile, mais inapplicable dans le quotidien d'un avocat qui doit fouiller des sujets hétérogènes.
Aucune de ces approches ne règle le problème de fond : le LLM reste celui qui écrit les références.
Notre approche : retirer les références du territoire de l'IA
Chez Consia, nous sommes partis d'une idée simple : si l'IA ne peut pas être fiable sur les références, alors ce n'est pas l'IA qui doit les fournir.
À chaque question que vous posez à Consia, voici ce qui se passe :
1. Compréhension de la question
Le modèle lit votre question et en extrait les intentions de recherche — domaine du droit, type de source pertinent (texte, arrêt, convention collective), filtres (dates, juridictions, mots-clés). Ce travail-là, un LLM le fait très bien parce qu'il n'a rien à inventer, juste à reformuler.
2. Interrogation directe des API officielles
Consia envoie alors des requêtes en temps réel aux API officielles :
- Légifrance (DILA) — pour les textes de loi, décrets, arrêtés, conventions collectives Kali, Journal Officiel.
- Judilibre (Cour de cassation) — pour les arrêts et décisions de toutes les juridictions françaises.
Ces API retournent des données brutes vérifiées : identifiant officiel, titre, juridiction, chambre, date, formation, texte intégral, lien canonique. Ces métadonnées ne sont jamais générées, reformulées ou modifiées par l'IA.
3. Synthèse par le LLM + affichage séparé des sources
L'IA rédige sa réponse en s'appuyant sur les textes retournés par les API. En parallèle, Consia affiche les sources officielles dans l'interface, sous forme de cartes distinctes, à côté de la réponse.
Ce que ça change dans le quotidien d'un cabinet
La différence opérationnelle est triple.
1. Vérification en un clic, pas en 20 minutes. Plus besoin d'ouvrir un deuxième onglet, de naviguer vers Légifrance, de retaper les termes, de scroller. Les cartes sont là, à côté, chaque référence est vérifiable instantanément.
2. Confiance asymétrique assumée. Dans nos CGU (article 4), nous formalisons une règle claire : en cas de divergence entre le texte généré par l'IA et le contenu d'une carte de source officielle, la carte prévaut. Cette convention de preuve protège l'utilisateur comme nous.
3. Logs d'affichage comme preuve. Chaque présentation d'une carte de source est horodatée dans nos logs. Si un litige survient sur ce qui a été montré à l'utilisateur à tel moment, nous avons la trace.
Les limites que nous assumons
Autrement dit : nous ne vendons pas une IA infaillible. Nous vendons une architecture qui vous donne, pour chaque phrase potentiellement factuelle, la source primaire à portée de clic. Le jugement final reste celui de l'avocat — comme il doit l'être.
Pour aller plus loin
Si ce fonctionnement vous intéresse, vous pouvez :
- Tester Consia gratuitement pour voir comment les cartes de sources s'affichent en direct pendant une recherche
- Lire notre page dédiée à la sécurité qui détaille l'ensemble des choix techniques (hébergement, chiffrement, secret professionnel)
- Consulter l'article 4 des CGU qui formalise notre approche anti-hallucination et les obligations de vérification qui incombent à l'utilisateur
Le sujet des hallucinations va rester central dans l'IA juridique pour les prochaines années. Nous avons pris le parti de ne pas promettre leur disparition, mais de les rendre détectables et corrigeables par l'utilisateur, systématiquement, en temps réel.
Sources citées
- 01.API Légifrance — DILA (Direction de l'Information Légale et Administrative)— data.gouv.fr · consulté le 2026-04-19
- 02.API Judilibre — Cour de cassation— Cour de cassation · consulté le 2026-04-19
- 03.Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools— Stanford RegLab · consulté le 2026-04-19
- 04.Conditions Générales d'Utilisation — Article 4 (Hallucinations et obligation de vérification)— Consia · consulté le 2026-04-19

