AIハルシネーション問題

by Shogo

AI技術が急速に進化する中、「ハルシネーション(幻覚)」問題が一層注目を集めるようになった。特に最近では、AIがより高度になるにつれて、皮肉にもこの問題が悪化しているようだ。なぜ、より強力になるAIがなぜ幻覚を見るのだろうか。実際に度々、ハルシネーションに遭遇するので、調査にAIを使う時は確認が必要だと痛感している。

AIハルシネーションとは

ハルシネーション(Hallucination)とは、AIが事実に基づかない情報を生成する現象のことだ。まるでAIが幻覚を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれている。例えば、存在しない人物の経歴を詳細に説明したり、実際には起こっていない出来事について確信を持って述べたりするケースがこれに当たる。厄介なのは、これがもっともらしく見えることだ。

ハルシネーションは日本語では「幻覚」と訳されるが、これは人間が現実には存在しないものを知覚する現象と同様に、AIが「見ていない」情報を「見た」かのように出力することを比喩的に表現している。

ハルシネーションの2つの主要タイプ

AIの幻覚現象は大きく2つのタイプに分類できる。

内在的ハルシネーション(Intrinsic Hallucinations) AIが学習に用いたデータとは異なる事実を出力するケース

例えば、「旭川市の旭山動物園ではシロクマを飼育している」という事実を学習しているにもかかわらず、「札幌市の旭山動物園ではシロクマを飼育している」と出力するようなケース

外在的ハルシネーション(Extrinsic Hallucinations) AIが学習データには存在しない情報を完全に創作して出力するケース

例えば、「旭川市の旭山動物園では、シロクマの親子が園内を散歩するパレードを行っています」という、学習データにはない情報を出力するケース

さらに別の視点では、「知識がないための幻覚」と「知識があるのに起こる幻覚」という分類も提案されている。前者は単純に正しい知識を持っていないため起こる誤りであり、後者はAIが正しい知識を持っているにもかかわらず、質問の仕方や文脈によって間違った回答をしてしまう現象となる。

推論モデルでハルシネーションが増加

最も懸念すべき点は、最新の「推論モデル」と呼ばれるAIシステムでは、以前のモデルよりもハルシネーションの発生率が高くなっていることだという。これは直感的に予想される「AIが進化すれば精度が上がる」という考えに反する現象だ。

最も強力なシステムである「o3」モデルは、公人に関する質問に答えるPersonQAベンチマークテストで33%のハルシネーション率を示したらしい。これは前世代のモデル「o1」の2倍以上だという。

さらに新しいモデル「o4-mini」は、同じテストでさらに高い48%のハルシネーション率を示した。

このような傾向はOpenAIだけでなく、GoogleやDeepSeekなど他社の推論モデルでも同様に観察されているようだ。特にDeepSeekの推論システム「R1」では、ニュース記事を要約するタスクにおいて14.3%のハルシネーション率を示し、これは以前のモデルから大幅に上昇している。

ハルシネーションの原因

AIハルシネーションが発生する原因は複雑で多岐にわたるが、主な要因として以下のものが考えられている。

1. 学習データの質と量の問題

AIモデルは膨大なデータから学習するが、そのデータに不正確な情報や偏りが含まれていると、それを反映したハルシネーションが発生する。インターネットから収集したデータには誤った情報や古い情報が混在しており、これがハルシネーションの主要な原因の一つとなっている。

2. AIモデルの確率的性質

現代のAIは厳密なルールベースではなく、確率的な予測に基づいて回答を生成する。AIは「次にどのような単語が続く可能性が高いか」を予測するよう訓練されており、その情報が事実かどうかを判断するよう明示的に訓練されているわけではない。このため、文脈には合っていても事実ではない情報が生成されることがある。

3. 複雑な推論プロセスの問題

最新の「推論モデル」は問題を段階的に考えていくよう設計されているが、各ステップでハルシネーションが発生するリスクがあり、それが積み重なって最終的な誤りを増幅させている可能性がある。複数のステップを経るほど、エラーが複合的に発生する危険性が高まるからだ。

4. AIモデルの本質的限界

一部の研究者は、ハルシネーションは大規模言語モデルに内在する避けられない制限であると主張している。「Hallucination is Inevitable(ハルシネーションは避けられない)」という論文も発表されているように、現在のAI設計では完全にハルシネーションを排除することは理論的に不可能かもしれない。

5. 変化するトレーニング手法

以前はインターネットから収集した大量のデータを単純に学習させることでAIの性能向上を図っていたが、利用可能なデータが枯渇してきたため、強化学習(Reinforcement Learning)などの新しい技術に移行している。この手法は数学やプログラミングなどの分野では成功しているが、事実に基づく情報の扱いでは課題が残っている。

6. AIの「思考」と「説明」の乖離

興味深いことに、AIが「自分はこう考えている」と説明する過程は、実際にAIが内部で行っている処理と一致していない可能性がある。「システムが自分は何を考えていると言っているかは、実際に考えていることとは必ずしも一致しない」と研究者は指摘している。

ハルシネーション問題への対策

AIのハルシネーション問題に対しては、様々な対策が研究・実装されている。

1. 学習データの品質向上

学習用データから不正確な情報や偏りのある情報を極力除去することで、ハルシネーションの発生を抑制する取り組みが行われている。しかし、大量のデータの質を向上させることは非常に労力がかかり、完璧な対策を取ることは困難だ。

2. 外部情報源との連携(RAG)

チャットボットAIに独自の情報源を付与するRAG(Retrieval-Augmented Generation、検索拡張生成)という仕組みを活用することで、ハルシネーションを軽減する手法が注目されている。これにより、AIは質問に答える際に信頼できる情報源を参照できるようになる。これは、すでに多くのAIが採用している。

3. 人間からのフィードバックによる強化学習(RLHF)

OpenAIのInstructGPTでは、人間からのフィードバックをもとに強化学習を行う手法(RLHF:Reinforcement Learning from Human Feedback)を取り入れることで、同社の大規模言語モデルGPT-3と比較して、ハルシネーションの発生を抑制することに成功した。これも、多くのAIが裏で行っているようだ。

4. Chain-of-Verification(CoVe)

ハルシネーションを減少させるための検証チェーンを実装する方法も研究されている。これにより、AIが生成した情報を内部で検証するプロセスを追加し、誤った情報の出力を減らす効果が期待されている。

5. 人間による監視とレビュー

最終的なバックストップとして、AIが生成した情報を人間が検証・レビューすることで、ハルシネーションによる問題を防ぐ取り組みが行われている。特に医療や法律など重要な分野では、人間の専門家による確認が不可欠だ。ただし、これには莫大なコストがかかるだろう。

AIハルシネーションは、高度に発達した現代のAI技術が直面する重要な課題の一つだ。特に最新の「推論モデル」では状況が悪化しており、AIがより賢くなるほど幻覚を見やすくなるという皮肉な状況が生まれている。

この問題の背景には、学習データの質、AIの確率的性質、複雑な推論プロセス、そしてAIの本質的限界など、複数の要因が絡み合っているようだ。というようなことでは、AIが完全なAGIに進化するのは、もう少し先ということだろうか。

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

error: Content is protected !!