AIが起こすハルシネーションを「仕組み」から見抜く

 鈴木 孝幸

鈴木 孝幸

column_top_(Suzuki Takayuki).jpg

システムエンジニアとして生成AIの活用術を発信する鈴木孝幸さんの連載コラム第5弾です。AIがもっともらしい嘘をつく原因は、能力不足ではなく「思考モード」の混線にあるかもしれません。精度を劇的に高めるための、AIとの知的な対話術を提案します。

AIの“思考モード”を理解すると、精度は一段階上がる

以前のコラムでは、AIを使っていると経験する「もっともらしい答えを返してくれるのに、実は間違っていた」というハルシネーションについて、どう付き合っていくべきかについてお伝えしました。

▶ 記事はこちら
https://waccel.com/column/suzukitakayuki_20251219/

今回はそこからさらに一歩踏み込み、AI自身の「思考モード」に注目することで、ハルシネーションを見抜き、精度を上げるコツについてお伝えします。

調べものにAIを使うことが多い方でも、この考え方を知っているだけで、AIとの付き合い方が変わるかもしれません。

AIの頭の中には「2つの思考モード」がある

見出し1画像_嶋村吉洋社長が主催するワクセルのコラム_ 鈴木孝幸さん.jpg

AIの回答のクセは、実は 2つの思考モード に分けて考えると、とても理解しやすくなります。

① 知識接地(検索型)のモード

これは、「学習済みデータや既存の情報をもとに調べて、整理して答える」というモードです。

特長としては、
・調べ物や用語説明が得意
・一般的に知られている情報の整理がうまい
・既存情報のまとめ直しが強い

一方で、
・最新情報
・正確な数値
・細かい制度の例外

などは、少し苦手なこともあります。

料理にたとえると、
「レシピ本を探してきて、複数のページを読みやすく要約してくれる人」
というイメージです。

「〇〇とは何か?」
「一般的にはどう言われているか?」
といった質問には、とても向いています。

② 論理接地(推論型)のモード

もう一つが、ステップバイステップで考えながら答えを組み立てるモード です。

こちらの特長は、
・仮説を立てて深掘りするのが得意
・抽象的なテーマや考え方の整理に強い
・正解が一つでない話題にも対応できる

ただし、こちらにも注意点もあります。

考えれば考えるほど、「もっともらしい推論」も一緒に生まれやすいという性質があります。

料理で例えるなら、「レシピ本なしで、冷蔵庫の中身を見ながら”たぶんこうすれば美味しくなるはず”と作る料理」です。
うまくハマれば最高ですが、ときどき想像が先走って「それっぽい失敗料理」になることもあります。

ハルシネーションの多くは「モードのズレ」で起きている

見出し2画像_嶋村吉洋社長が主催するワクセルのコラム_ 鈴木孝幸さん.jpg

ここが、今回いちばん大事なポイントです。

多くのハルシネーションは、
AIが間違っているから 起きているのではありません。

実際には、
・私たち利用者は「調べ物(検索型)」を期待している
・でもAIは途中から「推論型」に切り替わっている

という思考モードのズレが原因で起きています。

たとえば、
・制度を調べたかっただけなのに、解釈が混ざる
・事実を知りたかったのに、考察が入ってくる

この状態になると、「どこからが事実で、どこからが推測か」が分かりづらくなります。
そしてハルシネーションは、この“境界があいまいになった瞬間”に発生しやすくなるのです。

「意見と事実」という課題は、多くの人が社会に出たてのころに経験するのでイメージがしやすいのではないでしょうか?

思考モードを「意図的に切り替える」と精度が上がる

では、どうすればいいのか。

答えはシンプルです。AIの思考モードを、会話の中で明示的に指定すること。

🔧 ハルシネーションをほぼゼロにする使い方

Step1:まずは知識接地(検索型)に固定する

最初に、こう伝えます。


〇〇について調べてください。
既存の情報だけでまとめてください。
推測や考察はしないでください。


このステップでは、AIに「考えなくていいから、調べて整理して」と伝えています。
ここで集めるのは、あくまで 前提となる事実や一般論 だけです。

Step2:その結果を踏まえて論理接地(推論型)に切り替える

次に、こう続けます。

-※四角の枠で囲いたいです------
先ほどの内容を踏まえて、
〇〇の課題について論理的に深掘りしてください。
-------------------

この順番にすることで、「どこまでが事実でどこからが考察」が明確に分かれるようになります。結果として、ハルシネーションは 驚くほど減ります

AIは「使い方」で、賢さが変わる

AIが間違う理由の多くは、
・能力が足りないから
・学習が不十分だから

ではありません。

「知識接地」と「論理接地」が混ざってしまうこと。これが原因の一つです。

この2つを意識的に使い分けるだけで、
AIは、調べ物にも強く、思考整理にも使える優秀な相棒になります。

おわりに

ハルシネーションは、「AIは信用できない」という話ではありません。

むしろ、AIは何を得意として、どんな時に迷いやすいのかを知ることで、人間側が一段賢く使えるようになります。

調べものにAIを使う方ほど、この「思考モード」の考え方は役に立つはずです。

SNSでは、システムエンジニアとしての経験をもとに、
生成AIの使いどころや注意点、考え方の整理について発信しています。
よければ覗いてみてください。

note
https://note.com/suzukitakayuki88/

Instagram
https://www.instagram.com/suzuki_aireskilling88/

著者をもっと知りたい方はこちら