Glossaire · Français

Hallucination

Quand un LLM génère des informations qui semblent plausibles mais sont factuellement incorrectes.

Français · French

Définition

Les hallucinations sont des sorties confiantes mais erronées — citations fabriquées, jurisprudence inventée, APIs imaginaires. Elles sont le problème central de fiabilité dans les applications LLM en production. Atténuations : RAG avec citations, sortie structurée, augmentation par récupération, harnais d'évaluation, entraînement au refus et prompting explicite "je ne sais pas".

Exemple

Un LLM interrogé sur un vrai avocat cite une affaire judiciaire qui n'existe pas, avec une citation entièrement formatée.

Comment Vedwix utilise ceci

Nous concevons les systèmes pour refuser plutôt qu'halluciner. Chaque sortie qui affecte un utilisateur reçoit une citation ou un fallback.

Vous travaillez sur un projet de Hallucination?

Hallucination.

Décrivez votre projet en trois phrases ou moins.

Démarrer un projet

Hallucination

Décrivez votre projet en trois phrases ou moins.

Démarrer un projet