Microsoft の「ハルシネーション」キラー

by Shogo

ChatGPTなどの生成AIの普及が進んでいるが、その一方で、「ハルシネーション」と呼ばれる問題も深刻化している。ハルシネーションとは、AIが事実無根あるいは不正確な情報を生成してしまう現象だ。この問題のために、ChatGPTなどの生成AIチャットボットは使いづらい。だから、個人的には主にPerplexityを使っている。私のような、お気楽な使用でもそうだから、特に医療などの専門性の高い分野では、AIのハルシネーションは致命的な結果を招く可能性があり、AI導入への大きな障壁となっている。

このような状況を打開するため、MicrosoftはAzure AI Content Safetyの「訂正」機能のプレビューを発表した。この機能は、AIが生成したコンテンツのハルシネーションをリアルタイムで検出し、修正することを目的としていると言う。もしこれが、本当に機能すれば、生成AIの出力からハルシネーションを排除し、AI生成コンテンツの信頼性を飛躍的に向上させることができる画期的なものとなる。

「訂正」機能は、生成AIアプリを基盤となるドキュメントに接続することで動作するようだ。これらのドキュメントは、AIの出力情報が正確かどうかを検証するための証拠を提供できる。アプリ開発者は、この機能を有効にする必要があるそうだ。

設定すれば、具体的な動作は簡単だ。AIが出力した文章の中で、基盤となるドキュメントに裏付けがない文章(ハルシネーションの可能性がある文章)が検出されると、「訂正」機能は生成AIモデルに対して訂正リクエストを送信する。

生成AIモデルは、その文章と基盤となるドキュメントを比較検討する。もし文章が、基盤となるドキュメントからの情報を含んでいない場合は、その文章はフィルタリングされ、出力から除外される。

もし文章がドキュメントからの情報を含んでいるが、それが不正確な場合は、モデルは文章を書き直し、ドキュメントと一致する正確な情報になるように修正する。

理論的には、この機能により、AIが出力する情報は、少なくとも提供されたデータに基づいた事実に基づいていると信頼できるようになるはずだ。本当に機能すればだ。

「訂正」機能が有効ならば、生成AIの導入は、さらに進む。一般的には、ハルシネーションへの懸念が広まっているため、医療などの重要性の高い業界では、生成AIの導入が遅れている。もしMicrosoftがAIのハルシネーションを修正することに成功すれば、状況は変わるだろう。

AIのハルシネーションが本当に過去のものになるかどうかを判断するには、「訂正」機能が実際にどのように機能するかを見守る必要がある。しかし、このような機能は、AI生成コンテンツの信頼性向上に向けた重要な一歩であり、生成AIが社会にさらに浸透していくための鍵となる可能性を秘めている。

Microsoftが、「訂正」機能を提供するが、同様なサービスがさらに他の企業からも出てくると良い。その結果、AIが生成するコンテンツの信頼性を向上させることになる。これは、早く使ってみたいので、Microsoftのさらなる発表を待ちたい。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください

error: Content is protected !!