※本ページにはプロモーション(広告)が含まれています
生成AIがもっともらしい嘘を自信満々に出力する現象。存在しない論文、架空の人物、誤った事実などを作り出す最大のリスク。
詳しい解説
ハルシネーション(Hallucination・幻覚)は、生成AI、特にLLMが、学習データに基づかない誤った情報をもっともらしく自信満々に出力する現象を指します。存在しない論文のURL、架空の判例、実在しない人物の経歴、間違った数値・日付など、表面的には正しく見えるのに実際は虚偽、という事象が典型です。2022年のChatGPT一般公開以降、AI活用の最大級のリスクとして認識されています。
原因は構造的で、LLMは『次に来る最も確からしい単語』を確率的に予測する仕組みのため、学習データに無い質問にも平均的に『ありそうな回答』を作ってしまいます。『知らない』と正直に答えるより『それらしく答える』方が内部スコアが高くなる設計上のバイアスがあり、モデルが大きくなっても完全には消せないのが現状です。
代表的な失敗事例として、①2023年米国ニューヨーク州の弁護士がChatGPT生成の架空判例を裁判所に提出して懲戒、②2024年複数メディアでAI生成の架空記事配信問題、③企業カスタマーサポートでAIが『存在しない返金ポリシー』を回答して損害賠償義務化、④医療・法律領域での誤答による実害、など社会的・経済的影響が発生しています。
対策の王道は3つです。①RAG(検索拡張生成): 根拠文書を一緒に渡し、根拠に基づく回答を強制、②Tool Call: 検索・計算・DB照会で事実確認、③引用・出典明示: 回答に必ず情報源を付ける、の組み合わせが実用解として定着しました。2026年時点ではClaude・GPT-5・Gemini 3といった最新モデルでもハルシネーション率は完全ゼロにはならず、重要領域では人間による最終確認(ヒューマンインザループ)が必須となっています。
ユーザー側の防衛策としては、①重要情報は必ず出典を確認、②数字・固有名詞・URLは別途検索で裏取り、③『〜について知っている?』『根拠URLは?』と念押し、④医療・法律・税務・投資判断には必ず専門家確認、⑤自信満々の口調を信じない、の5点が鉄則です。『AIの回答はたたき台、最終判断は人間』の原則を守れば、ハルシネーションのリスクは大きく下がります。
技術的な改善動向としては、RLHF(人間フィードバック強化学習)の精緻化、自己検証レイヤー、『分からないと言える訓練』、真実性ベンチマーク(TruthfulQA等)によるモデル評価などが進行中ですが、根本解決には至っていないというのが2026年時点の学術コンセンサスです。
ChatGPTに『2024年のノーベル経済学賞受賞者は?』と聞くと、学習データのカットオフが2023年以前のモデルでは『ダロン・アセモグル、サイモン・ジョンソン、ジェームズ・A・ロビンソン』と正しい答えを言う代わりに、まったく別の架空人物名を自信満々に返すことがあります。これが典型的なハルシネーションです。対策としては、Web検索機能を有効化したRAGモードで同じ質問をすれば、最新公式情報を根拠に正しい回答が得られます。
別の呼び方
AI幻覚
AI捏造
AI虚偽出力
minto.tech スマホ(Android/iPhone)・PC(Mac/Windows)の便利情報をお届け! 月間アクセス160万PV!スマートフォン、タブレット、パソコン、地デジに関する素朴な疑問や、困ったこと、ノウハウ、コツなどが満載のお助け記事サイトはこちら!