アメリカ国防総省(ペンタゴン)のそばで爆発が起こっている画像が、月曜日にソーシャルメディアに流れた。それが、ロシア国営メディアや金融ニュースサイトZeroHedgeなどの公式アカウントなども共有したために拡散し、CNNなども報道した。このことが、開いた直後の株式市場にも影響を与えたようだ。S&P 500は1時0.5%下落して、偽画像と分かって回復した。
ペンタゴン近くの爆発の画像は、画像生成AIによるものと報道されているが、実際どうなのだろうか。ペンタゴンの画像と爆発の炎を合成することなど、何十年も前からPhotoshopでできる。画像生成AIに要るものと本当に確認できているなら良いが、AI脅威論を持ち出すのはいかがなものかとは思う。AIを使わなくても、偽画像は他の方法でいくらでも作れるからだ。道具を責めるのは筋違いだ。
しかし、Photoshopを使うためには、たいした技術ではないが多少の技術の習得が必要になる。これに対して画像生成AIは、英語で言葉を入力すれば簡単に画像が生成されるので、ほとんど技術の習得は必要ない。必要なのは、英語で単語を入力する位のことだ。確かに誰でもできる。その意味で画像生成AIの登場により偽画像を作る事は簡単になったということが言える。
日本でも、事件や災害の際にいくつかの偽情報がソーシャルメディアに流されたことがあった。多くの場合は、画像を作ったのではなく、他の災害や事故の画像を利用したものが多かったと記憶している。確かに、画像再生AI普及すれば、このようなことを行う愉快犯は、簡単に偽画像を作ることが可能になる。
Twitterは、偽画像やデマが拡散際して問題が起きることを防ぐために、ユーザが事実確認を行うクラウドソーシング型システムを利用する事を明らかにした。
Twitter社が使うのは2022年12月11日から開始した「コミュニティーノート」の仕組みである。「コミュニティーノート」は、偽情報の拡散を防ぐために、ユーザから協力者を募集して、疑問のあるツイートについては、協力者がコメントを付加するものだ。これは、それ以前はBirdwatchと呼ばれ、アメリカで展開していたものを全世界に発展させたものだ。
基本的な考え方としては、Twitter社は介入せず、協力者が自身の判断で、ツイートされた情報についてコメントをつけ、誤解を受けるような情報については偽情報として拡散することを防ぐことを意図している。
ウィキペディアのようにクラウドソーシング型でファクトチェックを行い、偽情報の拡散を防ぐことを意図している。これをTwitter社内で行うとすれば、膨大な工数が必要となり、現在のTwitter社では対応できないであろう。
ペンタゴン爆発偽画像をきっかけに、Twitter社は、「コミュニティーノート」で画像や映像についてもコメントつけることができるようにした。協力者は、画像や映像に対して文脈を説明したり、本物であるかどうかの事実確認をしてコメントをつけることができる。
協力者になるためには、Twitter側の審査が必要で、Twitterの規約に反してないことや、6ヶ月以上、Twitterを利用している事と電話番号が認証済みで、本人が確認できている人だけが協力者になれる。協力者が偽情報の発信源にならないような安全装置が付けられている。
協力者はインパクトスコアと言う自分のコメントがどれだけ役に立ったかと言う評価もあり、今回新たに導入される画像などメディアにコメントをつけられるのは、インパクトスコア10点以上の人だけだと言うことだ。このインパクトスコア10点以上が、どの程度のことかわからないが、ある程度実績が評価されている人でないと、画像などにコメントがつけられないようだ。これもまたリスク低減の安全装置だ。
画像生成AIの普及に伴って、様々な偽画像が容易に生成され、ソーシャルメディア上に現れる可能性があるのも事実。このTwitter社が採用するクラウドソーシングで、それを防ぐのは、最も実用的なシステムと感じる。