定義
ハルシネーションは自信があるが間違った出力です — 捏造された引用、作り上げた判例、発明されたAPI。本番LLMアプリの中心的な信頼性の問題です。緩和: 引用付きRAG、構造化された出力、検索拡張、評価ハーネス、拒否訓練、明示的な「わからない」プロンプティング。
例
実在の弁護士について尋ねられたLLMは、完全にフォーマットされた引用で存在しない裁判所の事件を引用します。
Vedwixでの使用方法
ハルシネーションするのではなく拒否するシステムを設計します。ユーザーに影響を与えるすべての出力は引用またはフォールバックを取得します。