OpenAIのディープフェイク検出ツール

by Shogo

AIによって生成された画像、音声、ビデオが政治的なキャンペーンや選挙に影響を与える事例が報告されている。これに対処するため、OpenAIが、自社の画像生成ツール「DALL-E」によって作成されたコンテンツを検出する新しいツールを開発した。このツールは、特に今秋のアメリカの大統領選挙に向けて重要な役割を果たすと期待されているようだ。

OpenAIの新しいディープフェイク検出ツールは、同社が開発した画像生成ツール「DALL-E 3」によって生成された画像を98.8%の正確さで識別する能力を持っている。しかしOpenAIは、このツールが万能ではないことも認めている。というのも、ディープフェイク検出は確率に基づいているため、100%の精度を出すことは不可能だそうだ。

また、他の画像生成ツール、例えばMidjourneyやStabilityによって生成された画像の検出は想定していない。この時点で、有効性には大きな限界があるが、OpenAIの開発によるものなので仕方ないのだろう。そこでOpenAIは、検出ツール以外にもディープフェイク対策を進めているそうだ。OpenAIの発表によれば、具体的には、以下の2点が挙げられている。

Coalition for Content Provenance and Authenticity (C2PA)への参加 

C2PAは、デジタルコンテンツの生成履歴や改変履歴を記録するための基準を作る団体だ。いわば、画像や動画などのコンテンツに「履歴情報」を付加する仕組みづくりを目指している。これにより、コンテンツの信頼性や真正性を判断しやすくなることが期待される。すべての生成されたコンテンツに、このデータが付加されれば、ディープフェイク対策に有効だろう。

AI生成音声への透かし技術の開発 

OpenAIは、AIで生成された音声に、検出しやすい「透かし」を入れる技術も開発している。この透かしは、容易に除去できないようにすることも目指されており、AI生成音声の特定に役立てることが考えられる。これも、有効だが、この秋の大統領選挙に間に合うのだろうか。

このように、OpenAIの検出ツールは、AIによる偽情報の脅威に対しては、無いよりマシという程度で解決策になっていない。このためには、法規制も含めて、早急な対応策が求められている。以下にリストアップしてみる。

メディアリテラシー教育の強化

学校教育やウエブ上の啓蒙活動などを通じて、情報の信頼性を見極める力を育成することが重要。批判的思考力を身につけ、情報の出所や根拠を確認する習慣をつける必要がある。ただし、これも限界があり時間もかかる。

ファクトチェック体制の整備

メディアや専門家による情報検証の仕組みを強化し、虚偽情報を早期に特定・訂正できるようにする。信頼できる情報源を増やすことも有効。これは、業界団体が監視組織などを組織して、ウエブ上のコンテンツをモニターすることを徹底的に行えば、かなりの効果が期待できる。ただし、その費用の負担をどうするかが大きな問題だ。

プラットフォーム事業者の自主規制

SNSなどのプラットフォーム事業者が自主的に対策を講じることも重要だ。虚偽情報の削除や警告表示、アルゴリズムの改善などが求められる。これについては、ある程度の効果が期待できるが、プラットフォーム事業者がこの対策を受け入れるかということと、AI生成の能力を毀損することもあり得るので悩ましい問題だ。

技術的な対抗手段の開発

今回のOpenAIのツールのような、AIで生成された偽情報を検知するツールを、業界のすべての生成AI事業者が協力して開発することが一つの解決の方法だ。これは、多額の資金を集めている各事業者が協力して、今回のOpenAIの検出ツールのような、汎用性のあるツールを開発することが求められる。

OpenAIの新しいディープフェイク検出ツールは問題に対処する一助となるかもしれないが、完璧な解決策にはならない。AIコンテンツを監視するための、上記のような方法が、緊急に求められている。業界全体がこの問題にどのように取り組むかが注目される。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください