IA & LLM
Hallucinations de l'IA
Les hallucinations de l'IA designent la production d'informations fausses, inventees ou incoherentes presentees avec une apparente certitude par un modele de langage. Ce phenomene est inherent au fonctionnement des LLM qui generent du texte statistiquement probable plutot que factuellement verifie. Un LLM peut inventer des references de jurisprudence ou des articles de loi inexistants.
Les hallucinations constituent le risque principal de l'utilisation de l'IA en droit. Un LLM ne "comprend" pas le droit : il genere des sequences de mots statistiquement probables en fonction de son entrainement. Lorsque les donnees d'entrainement sont insuffisantes ou ambigues sur un sujet, le modele peut produire des informations totalement fictives avec un aplomb trompeur — inventer des references de jurisprudence, citer des articles de loi inexistants, ou attribuer des positions doctrinales fantaisistes.
L'affaire Mata v. Avianca (2023) illustre dramatiquement ce risque : des avocats americains ont ete sanctionnes a hauteur de 5 000 dollars pour avoir soumis au tribunal des citations jurisprudentielles entierement fictives generees par ChatGPT, sans aucune verification. En France, le CNB a rappele que l'avocat reste entierement responsable de tout contenu produit avec l'aide de l'IA.
Pour attenuer les hallucinations, plusieurs strategies sont disponibles : l'architecture RAG qui ancre les reponses dans des sources verifiees, un reglage de temperature basse (0.1-0.3) pour privilegier la precision, et surtout une verification humaine systematique. Aucun outil d'IA ne dispense le professionnel du droit de son devoir de controle et de son obligation de competence.
Pour aller plus loin