ハルシネーションとは
生成AIを使っていると、「自身たっぷりに説明してるけど、実は間違っている情報」を出力してくることがあります。
これを「ハルシネーション(hallucination)」と呼びます。
AIが嘘をついているわけではなく、文章を生成するプロセスのなかで“それっぽい答え”を生成してしまう現象です。
「世界で一番高いタワーは?」と聞き「東京タワーです。」と答える(誤った情報)
これは、Google や OpenAI などの技術解説でも正式に指摘されている”AIの限界”です。
ハルシネーションの種類
ハルシネーションには、大きく分けて 「Intrinsic(内的)」 と 「Extrinsic(外的)」 の2種類があります。
どちらもAIが「間違った情報を生成する」現象ですが、原因の性質が異なります。
こうした間違いは、プロンプト(質問や指示の文)を工夫しても完全には防ぎにくいとされています。
Intrinsic Hallucination(内的ハルシネーション)
「Intrinsic(内的)」ハルシネーションとは、AIが学習した情報と食い違う内容を答えてしまうことです。
たとえば、文章を要約するときに、元の文には
「A社の売上は2022年に減少した」
と書かれているのに、AIが
「A社の売上は2022年に増加した」
と要約してしまうような場合です。
これは、AIが学習したときの知識の偏りや、言葉をつなぐときの内部処理のゆがみが原因で起こります。
ただし、AIの学習をやり直したり(ファインチューニング)、出力を検証したりする技術を使うと、起こる頻度を減らすことは可能です。
Extrinsic Hallucination(外的ハルシネーション)
「Extrinsic(外的)」ハルシネーションは、AIが学習したデータ情報にはない内容を勝手に付け加えてしまうことです。
たとえばAIが
「最新の研究では○○が証明されました」
と答えたのに、その「研究」が実際には存在しなかったり、言っている内容が本当の論文とは違っていたりするケースです。
このような間違いは、AIが情報源を確認せずに、もっともらしい文章を作ってしまうことで起こります。
ですが、質問に答えるときに外部のデータベースを参照したり(RAGと呼ばれます)、出典を明示するように指示したりすることで、ある程度防ぐことができます。
なぜハルシネーションは起こるの?
AIが間違えるのには、いくつかの理由があります。
学習データに誤りがある
AIは文章データをもとに学習しています。
その中に誤った情報があると、それをもとに間違えた情報を生成してしまうことがあります。
質問があいまい
たとえば「AIのことを教えて」とだけ聞かれると、
AIはどの情報を答えればいいのか判断できず、勝手に補って話を作ることがあります。
最新の情報を知らない
ChatGPTのようなAIは、学習した時点での情報をもとに動いています。
そのため、最近のニュースや出来事を知らないことについては答えることができず、誤った情報を生成することがあります。
AIのしくみの問題
AIは「次に来る言葉を予測」して文章を作ります。
つまり、“正しさ”よりも“自然な文章”を優先して出力してしまうのです。
ハルシネーションによるリスク
もし間違った情報をそのまま使ってしまうと…
- 読者に誤解を与え、信頼性が下がる
- 専門ジャンル(医療・金融など)ではトラブルになる
- 他社や人に損害を与えた場合、訴訟に発展するケースも
AIの文章はそのままコピペせず、必ず「人が確認する」ことが大事です。
ハルシネーションを減らす方法
プロンプト(指示文)を工夫する
AIの回答は「質問の仕方」で大きく変わります。
「生成AIについて教えて」などの曖昧な質問は避け、
「生成AIの2024年の市場規模について教えて」など、条件をはっきり伝えると間違いが減ります。
ほかにもハルシネーションを減らす3つの方法をご紹介します。
プロンプト例①:出典を求める
あなたはAIの専門家です。
2024年のAI市場規模について、信頼できるデータ(政府公式統計、学術論文、法令・判例など)を引用・明示して説明してください。
出典がない場合は「不明」と答えてください。
→ 出典を指定すると、AIは“根拠のある情報”を優先して出します。
また引用元を明示させることでファクトチェックもしやすくなります。
プロンプト例②:考える条件と手順を求める
次の順で考えて答えてください。
1. 問題を分解
2. 解決策を提案
3. 最後にまとめる
条件は以下です。
1. 箇条書きで3つ
2. 各項目は50〜80字
3. 参考文献をつける
テーマ:「2024年のAI市場規模について」
→ 形式を決めるとAIが勝手に話を広げにくくなり、思考プロセスを可視化できます。
プロンプト例③:AI自身にハルシネーションを見つけてもらう
いま出力した内容に誤った記載がないか、科学的根拠と出典を含めてレビューしてください
→ 生成AI自身に誤りを見つけてもらうテクニック。誤った情報がないか検証できます。
人間がチェックする
AIの回答は、必ず人の目で確認しましょう。
- 数字・統計・年号 → 一次情報をチェック
- 引用された本やサイト → 実在するか確認
- 医療・法律など → 専門家の監修を受ける
AIはあくまで「参考資料をまとめる助手」として使うのがおすすめです。
まとめ
ハルシネーションは、AIが持つ「限界」のひとつです。
でも正しく使えば、情報整理や文章作成の強力な味方になります。
AIを「情報の出発点」にして、最後はあなた自身の目で確かめましょう!
次に読む記事はこちら:



コメント