AIが起こす「ハルシネーション」とその対処法について

鈴木 孝幸

鈴木 孝幸

column_top_(Suzuki Takayuki).jpg

システムエンジニアとして働く傍ら、ITスクールの講師や、AIを使った業務改善に取り組んでいる鈴木孝幸(すずき たかゆき)さんの連載コラム第3弾です。AIを使っているときに、もっともらしい答えが返ってきたけど間違っていたという経験はないでしょうか。本記事では、そんな「ハルシネーション」についての知識と対処法についてお伝えします。

先日、友人から「新宿にめちゃくちゃ美味しいラーメン屋があるよ!」と教えてもらいました。その場でスマホで調べてみたら……なんと「閉業」と書かれていて、ちょっと気まずい空気になりました!

こういう肩透かしのような経験って日常でけっこうありますよね。

ラーメン屋くらいなら笑い話になりますが、AIとの対話でも、同じような「誤情報」は割とある話なのです。

ハルシネーションとは何か

見出し1画像_嶋村吉洋社長が主催するワクセルのコラム_ 鈴木孝幸さん.jpg

AIを使っていると、もっともらしい答えを返してくれるのに、実は間違っていた…そんな経験、ありませんか?

これが「ハルシネーション」と呼ばれる現象です。
しかも厄介なのは、AIが堂々と自信満々に語ってくるところ。こっちも「なるほど!」とうなずいてしまいそうになるんですよね。

特に注意したいのが、誰かについて調べるとき。エゴサーチや人物調査では、似たような名前の人物の情報が混ざる可能性があります。

ChatGPTが出始めてすぐの頃に、ピン芸人の陣内智則さんが公開しているネタがまさに「ハルシネーション」です!

↓↓↓

【チャットGPTで腹筋崩壊!!】話題のAIで陣内智則を調べてみたら…聞いたことないギャグ、コントが続々!!
https://youtu.be/J9QVLuvzIb8?si=elLyEscMPY4BbOIK

もうひとつハルシネーションが起きやすいのは、数値計算の間違いです。ChatGPTは計算はやや苦手なので、桁を見落としたり、四則演算でうっかり誤答をしたりします。

数字は「正しく見える」から怖いんですよね。

僕も「あれ、計算機で検算したら違った!」という経験も、何度かやらかしてます。

人間である僕らが、「数字に関する感度」を高めることはとても大切です。

ハルシネーションがなぜ起こるのか

見出し2画像_嶋村吉洋社長が主催するワクセルのコラム_ 鈴木孝幸さん.jpg

AIが誤った答えを出してしまう「ハルシネーション」は、主に「AIの性質そのもの」から生まれます。

ChatGPTのような生成AIは「大規模言語モデル(LLM)」を採用しています。

これは、ざっくり言うと「大量の文章を読み込んで、文脈的に『次に来る可能性が最も高い言葉』を選ぶ仕組み」なのです。

たとえるなら、膨大な本や会話を読みまくった「言葉の予測マシン」のようなもので、「この流れなら次はこういう表現が来るだろう」という確率を常に計算しながら文章を作っています。

AIは「確率が高い=正しい」と思ってしまうため、情報が足りなかったり質問が曖昧だったりすると、「もっともらしいけど間違った答え」を作ってしまうことがあります。これがハルシネーションの正体です。

ハルシネーションは人間が曖昧な質問をすると、AIはその「穴」を推測で埋めようとすることで発生しやすいと言われています。

AIは使い物にならないの?

見出し3画像_嶋村吉洋社長が主催するワクセルのコラム_ 鈴木孝幸さん.jpg

このような現象をみて、「ハルシネーションがあるからAIは使い物にならない」というようにレッテルを貼る人が一定数いるようです。

でも、本当にそれでよいのでしょうか?

冷静に考えてみると、人間だって間違えます。

僕も「正しいつもりで間違える」ことが多々あります。
ITスクールで自信満々で講義をして、後から「あれは少し違ってたな…」と、後から謝ったこともあります。

また、皆さんの身近にも、「この前教えたあの店どうだった?」と聞かれたが、何の話か思い出せない…
分からなくてもその場の空気を読んで「おいしかったよ!」と言ってしまったことはありませんか?

人間が空気(文脈)を読んで「白い噓」をついたり、本当に合っていると信じて疑わない「無自覚の嘘」をついてしまうのと同様だと僕は思います。

そう考えると、AIのことをちょっと身近に感じて許せると思いませんか?

ハルシネーションとの向き合い方

見出し4画像_嶋村吉洋社長が主催するワクセルのコラム_ 鈴木孝幸さん.jpg

AIが進化するたびに、ハルシネーションは少なくなってきているといわれていますが、ゼロになることはありません。

ではどうやって付き合えばいいのでしょうか。ポイントは「鵜呑みにしない」ことです。

僕がよくやる工夫はこんな感じです。

 ・「わからない場合は『わからない』と答えて」と指示してみる
   →こうすると「空気を読んで勝手に補完されること」が減ります。

 ・「結論に至る過程をステップバイステップで」と指示してみる
   →途中経過が分かるので検証がしやすいです。

 ・できる限り具体的に指示をしてみる
   →推測で答えを返すことが少なくなります。 

 ・複数のAIに同じ質問を投げて見比べてみる
   →複数の視点で検証ができます。

これだけでも発生確率をグンと下げることができます。

そして、特に重要なものの場合は、さらに別の手段でファクトチェックをすることが欠かせません。

情報を入手する上で、特に意識すると良いのは、下記だと思います。

 ・信頼できる人からの情報
 ・自分の目で見て経験した内容
 ・文責のはっきりした書籍からの情報

やっぱり最後は人間の感覚。自分で確かめる事を大切にしましょう!

AIを「嘘つき」として遠ざけるより、「頼りになるけどちょっと抜けてる相棒」として隣に置いています。最後に判断するのは自分。そのほうが健全ですし、責任も持てるかなと感じています。

長くなってきましたので今回はこのあたりで…

次回のコラムでは、ハルシネーションを見抜くためのより応用テクニックについてご紹介できればと思います!

SNSでシステムエンジニアとしての経験からAIに関する投稿を行っていますのでぜひ見てみてださい!

ぜひnoteの記事とInstagramも見てみてください。

note
https://note.com/suzukitakayuki88

Instagram
https://www.instagram.com/suzuki_aireskilling88

著者をもっと知りたい方はこちら