AI技術の進化に伴い、情報の信憑性や倫理的な課題が深刻化している。フェイク画像やフェイク動画は、これからますます氾濫するのだろう。そして、ソーシャルメディアにおけるパロディアカウントやフェイクアカウントの問題は、誤情報の拡散のリスクも含めて、大きな問題になってゆくだろう。
X(旧Twitter)は、パロディアカウントが誤情報を広めるリスクに対応するため、アカウント名の下に「パロディ」ラベルを表示する機能を導入予定だと報道された。この対応は、偽情報が拡散されることで公共の議論が歪められる危険性を軽減することを目的としているのだそうだ。先日、イーロン・マスクのパロディアカウントが、ドナルド・トランプとの関係を装った虚偽の投稿を行い、瞬く間に拡散された事例があった。このようなパロディアカウントの誤情報は、混乱を引き起こす可能性がある。大統領選挙にも影響を与えたかもしれない。
そして、更に大きな問題は、パロディアカウントの誤情報はAIの信頼性を揺るがす可能性もあるということだ。AIは膨大なデータを基に学習するが、誤情報が含まれたデータを取り込むことで偏った学習結果を生むリスクがある。Xは現在、AIのトレーニングデータとして公開された投稿を利用する権利を投稿者から許可を受けており(という利用規約になっている)利用権の保持しており、これが情報の質にどのように影響を与えるかが注目される。また、AIが自動生成したコンテンツがSNSで拡散し、AIの学習に誤解を引き起こすケースも報告されている。
このような問題を避けるためには、AIの透明性と説明責任を強化する必要がある。そのためには、誤情報を含むデータの排除を徹底し、信頼性の高い情報をトレーニングデータに使用することが重要だ。そして、今回、Xが検討しているようにパロディアカウントのラベリングを義務化し、誤情報の拡散を抑制する取り組みが不可欠だろう。
AIは医療や教育、ビジネスプロセスの自動化など多くの分野で革新をもたらすことは確実だ。しかし、情報の信頼性を確保し、倫理的な課題に対応するための規制と技術的対策が求められる。パロディアカウント問題の管理は、こうしたAIの社会的影響を考える上でのきっかけになるだろう。Xの今回の取り組みは、この観点から時宜にかなっている。Xもたまには良いことをする。