Coulisses techniques

Comment Consia évite les hallucinations : notre architecture anti-invention

Pourquoi les IA généralistes inventent des arrêts et des articles de loi — et comment Consia a résolu le problème en interrogeant Légifrance et Judilibre en direct, à chaque requête.

Andy Akhatar · Fondateur, Consia
··7 min de lecture

Le problème : quand une IA invente une jurisprudence

Si vous avez déjà demandé à ChatGPT, Claude ou Gemini de vous citer un arrêt de la Cour de cassation sur un point précis, vous avez probablement observé un schéma familier. La réponse arrive, bien structurée, avec un numéro de pourvoi qui a l'air plausible, une date qui colle au sujet, une chambre cohérente.

Sauf qu'en allant vérifier sur Légifrance ou sur Judilibre, cet arrêt n'existe pas.

Ce n'est pas marginal. Des études répétées depuis 2023 — dont celle de l'Université de Stanford sur les modèles les plus récents — montrent qu'entre 17 % et 58 % des références juridiques produites par une IA généraliste sont fabriquées : numéros inventés, citations déformées, attributions à la mauvaise juridiction, dates imaginaires.

Pourquoi une IA invente-t-elle des arrêts ?

Comprendre la cause permet de comprendre pourquoi ce n'est pas un bug qu'on pourrait corriger dans la prochaine version.

Un grand modèle de langage (LLM) ne consulte pas de base de données quand il répond. Il ne va pas chercher la réponse dans une bibliothèque. Il produit du texte un mot à la fois, en choisissant à chaque étape le mot le plus probable statistiquement, au regard de son entraînement sur des milliards de textes.

Quand vous demandez « cite-moi un arrêt récent sur la prescription des actions en nullité », le modèle n'a pas accès à Judilibre. Il a appris, pendant son entraînement, que les arrêts français ont une forme : "Cass. civ. [date], n° [numéro]". Il connaît à peu près la grammaire du sujet. Il produit donc un texte qui ressemble à un arrêt. Mais il n'a aucun moyen de vérifier si la référence existe vraiment.

Pour une IA, un vrai numéro de pourvoi et un numéro inventé sont aussi plausibles l'un que l'autre — tant que la forme est correcte.

Ce que les éditeurs ont essayé

Plusieurs approches ont été tentées :

  • Fine-tuner le modèle sur le corpus juridique — réduit le taux d'erreur, mais ne le supprime pas. Le modèle continue à générer, pas à consulter.
  • Ajouter une couche de vérification a posteriori — mais si l'IA invente le numéro 24-11.892, rien n'indique qu'elle est consciente de l'invention.
  • Limiter à des cas très restreints — utile, mais inapplicable dans le quotidien d'un avocat qui doit fouiller des sujets hétérogènes.

Aucune de ces approches ne règle le problème de fond : le LLM reste celui qui écrit les références.

Notre approche : retirer les références du territoire de l'IA

Chez Consia, nous sommes partis d'une idée simple : si l'IA ne peut pas être fiable sur les références, alors ce n'est pas l'IA qui doit les fournir.

À chaque question que vous posez à Consia, voici ce qui se passe :

1. Compréhension de la question

Le modèle lit votre question et en extrait les intentions de recherche — domaine du droit, type de source pertinent (texte, arrêt, convention collective), filtres (dates, juridictions, mots-clés). Ce travail-là, un LLM le fait très bien parce qu'il n'a rien à inventer, juste à reformuler.

2. Interrogation directe des API officielles

Consia envoie alors des requêtes en temps réel aux API officielles :

  • Légifrance (DILA) — pour les textes de loi, décrets, arrêtés, conventions collectives Kali, Journal Officiel.
  • Judilibre (Cour de cassation) — pour les arrêts et décisions de toutes les juridictions françaises.

Ces API retournent des données brutes vérifiées : identifiant officiel, titre, juridiction, chambre, date, formation, texte intégral, lien canonique. Ces métadonnées ne sont jamais générées, reformulées ou modifiées par l'IA.

3. Synthèse par le LLM + affichage séparé des sources

L'IA rédige sa réponse en s'appuyant sur les textes retournés par les API. En parallèle, Consia affiche les sources officielles dans l'interface, sous forme de cartes distinctes, à côté de la réponse.

Ce que ça change dans le quotidien d'un cabinet

La différence opérationnelle est triple.

1. Vérification en un clic, pas en 20 minutes. Plus besoin d'ouvrir un deuxième onglet, de naviguer vers Légifrance, de retaper les termes, de scroller. Les cartes sont là, à côté, chaque référence est vérifiable instantanément.

2. Confiance asymétrique assumée. Dans nos CGU (article 4), nous formalisons une règle claire : en cas de divergence entre le texte généré par l'IA et le contenu d'une carte de source officielle, la carte prévaut. Cette convention de preuve protège l'utilisateur comme nous.

3. Logs d'affichage comme preuve. Chaque présentation d'une carte de source est horodatée dans nos logs. Si un litige survient sur ce qui a été montré à l'utilisateur à tel moment, nous avons la trace.

Les limites que nous assumons

Autrement dit : nous ne vendons pas une IA infaillible. Nous vendons une architecture qui vous donne, pour chaque phrase potentiellement factuelle, la source primaire à portée de clic. Le jugement final reste celui de l'avocat — comme il doit l'être.

Pour aller plus loin

Si ce fonctionnement vous intéresse, vous pouvez :

  • Tester Consia gratuitement pour voir comment les cartes de sources s'affichent en direct pendant une recherche
  • Lire notre page dédiée à la sécurité qui détaille l'ensemble des choix techniques (hébergement, chiffrement, secret professionnel)
  • Consulter l'article 4 des CGU qui formalise notre approche anti-hallucination et les obligations de vérification qui incombent à l'utilisateur

Le sujet des hallucinations va rester central dans l'IA juridique pour les prochaines années. Nous avons pris le parti de ne pas promettre leur disparition, mais de les rendre détectables et corrigeables par l'utilisateur, systématiquement, en temps réel.

Rédigé par

Andy Akhatar

Fondateur, Consia

À lire aussi