SNSには、生成AIによる映像や画像が溢れている。それらには、多くの場合には「AI生成」のラベルがついているようになった。また、YouTubeなどにデータをアップロードする場合には、AIを使ったかどうかを自己申告する。生成AIのリスクに備えて、可能な対応が取られていると思っていた。
だが、Instagramのアダム・モッセリが投稿したポストが話題になっている。Instagramは今後、AI生成コンテンツの識別は困難になると認めたのだ。これは単なる技術的な課題ではなく、メディアの信頼性が問われること意味する。
その上で、モッセリは一つの提案をしている。彼は、偽物を追いかけるより、本物に指紋をつける方が現実的だと言っている。これは責任の所在を、プラットフォームからカメラメーカーへと移すことを意味する。具体的には、撮影時に暗号署名を画像に埋め込み、カメラからSNSまでの管理の連鎖を確立する構想だ。
実際、ソニーやニコンはすでにC2PA規格に準拠したコンテンツ認証技術を実装し始めている。BBC R&Dとソニーの協働プロジェクトでは、2025年7月に発表されたPXW-FX30カメラで、撮影時に動画ファイルへ直接デジタル署名を埋め込む実証を行った。ニコンは2021年にC2PAとCAIの両方に最初に参加したカメラメーカーであり、選択されたカメラで「Nikon Authenticity Service」を提供している。
しかし、この方法にも課題はある。透かしやメタデータは、容易に削除できからだ。OpenAIも、これを特効薬ではないと言っている。
面白かったのは、モッセリの写真についての意見だ。彼は、「スクエア写真、洗練されたメイク、滑らかな肌、美しい風景などそんなInstagramは死んだ」と書いている。知らなかったが、多くの人がフィードへの投稿ではなく、DMでぼやけた写真や手ぶれ動画を共有するようになったそうだ。そのような完璧ではない写真が、真正性の証明として機能するようになっているということだ。まるで数十年前のアレボケ写真が復活しているかのようだ。
モッセリは、「AIが完璧な映像を生成できる世界では、プロフェッショナルな完璧な映像が『AIだ』という証になる」と発言している。カメラメーカーが、完璧な美しい写真を目指してきたことを批判している。今や、皮肉なことに、不完全さが本物らしさの指標になった。
だが、ここにも限界があるだろう。AIが不完全さまで再現できるようになれば、視覚的手がかりはもはや機能しないだろう。そうなったとき、モッセリの予測では、誰が投稿したかが信頼性の証になるという。今後は、誰が言っているかに信頼の軸が移るのかもしれない。
Metaはすでに、自社プラットフォーム上でAI生成・改変コンテンツを確実には検出できないと認めていた。そのためにInstagramの対応は以下のように生成AIのリスクに対応している。
- ①優れたクリエイティブツールの構築
- ②AI生成コンテンツの明確なラベル付け
- ③メーカーとの連携による本物検証
- ④投稿者の信用性指標の表示
- ⑤オリジナリティを重視したランキング改善
という5つの戦略を進めるという。
モッセリの発言が示すのは、技術的なAI検出競争の終焉だ。AI検出ツールを強化し続けるのではなく、検証可能な本物を少数でも確保し、そこから信用を広げていくというような戦略への転換だ。
C2PA規格の普及が進めば、ニュース組織や企業は撮影時点で認証された素材を使うようになるかもしれない。しかし、すべてのスマホやカメラがそうした機能を持つまでには時間がかかるだろう。それまでの移行期間は、全てを疑うということが続くのだろう。その際にモッセリの発言のように、投稿者や発言者が誰かを手掛かりにするしかない。
