Accueil
›
Section B — Intelligence artificielle générative
›
Hallucination d’IA
Hallucination d’IA
Équivalent anglais AI hallucination
Contenu erroné, inadéquat ou fictif généré par un modèle d’intelligence artificielle et présenté de manière factuelle, comme si l’information était authentique ou conforme à la requête initiale. Les hallucinations sont une limitation connue des grands modèles de langage.
Note
Termes parfois utilisés : « affabulation », « confabulation », « fabulation ». La métaphore « hallucination » est critiquée par certains chercheurs car elle anthropomorphise la machine. **Effet en aval principal** : les hallucinations contribuent directement à la mésinformation lorsque l’utilisateur diffuse comme un fait une information générée par un modèle sans la vérifier. **Parades** : vérification systématique des sources, esprit critique, recours à la génération augmentée par récupération qui ancre les réponses du modèle dans une base documentaire fiable.
Exemple
Un modèle qui invente une citation, une référence bibliographique ou un précédent juridique inexistant tout en présentant l’information comme vraie. Si l’utilisateur cite cette information sans la vérifier, l’hallucination devient mésinformation publique.
Source OQLF, GDT, fiche « hallucination d’IA ».