顔が盗まれる時代

by Shogo

YouTubeが、政治家、政府関係者、ジャーナリストを対象に、自分の顔や声を無断で使ったAI生成動画を検出・通報できるツールの提供を始めると発表した

きっかけはディープフェイクの爆発的な増加だが、問題は、その量だけではない。質の向上こそが恐ろしい。生成AI技術の急速な進化によって、かつては専門家でなければ作れなかったフェイク動画が、いまや誰でも数分で量産できる時代になってしまった。 選挙演説を捏造し、ジャーナリストに虚偽発言をさせる。それが本物と区別できないほどの精度で、SNSに溢れている。

ツールの仕組み

このパイロットプログラムへの参加は、本人確認動画と政府発行のIDを提出することで始まる。 YouTubeはその情報をもとに類似動画を自動検出し、YouTube Studio上のダッシュボードに一覧表示する。本人はそこから問題のある動画を申告し、削除申請へ進む流れだという。提供した個人情報はGoogleのAIモデルの学習には使わず、あくまでこの検出ツールの精度向上のみに用いるとされている。

もともとこの技術は、2024年12月に、タレント事務所のクリエイティブ・アーティスツ・エージェンシー(CAA)との提携で始まったパイロット・プラグラムから生まれたそうだ。つまり、商業価値のあるタレントのパブリシティ権を守るために考えられたということだ。 2025年10月には、YouTubeパートナープログラムの参加クリエイター約5000人への提供が始まり、 そこから半年足らずで、政治・報道の領域へと対象が拡大したという。

なぜ政治家とジャーナリストなのか

MetaはFacebookやInstagramで横行する著名人を使った詐欺広告に対して顔認識システムを導入した。 YouTubeも同様の圧力下にあるらしい。しかし今回の拡大が際立っているのは、対象が「政治的的言論の中心にいる人々」に絞られている点だ。彼らへのなりすましは、単なる詐欺を超えて、民主主義そのものを歪める可能性があるからだそうだ。

残る問題と社会的含意

とはいえ、このツールが万能でないことは明らかになっている。YouTubeはディープフェイクの検出を保証するものの、削除は保証していない。 通報しても審査があり、判断はYouTube側に委ねられるそうだ。風刺やパロディとの境界線は曖昧なままで、表現の自由との衝突は避けられないだろう。

ここで問われているのは、技術的な精度の問題だけではないかもしれない。誰の顔が守られるべきかという問いは、結局、誰の発言が社会的に価値があるかという問いと重なっている。今回の対象が政治家とジャーナリストに限られている点に、そのヒエラルキーが見える気がする。このツールでは、一般市民のディープフェイク被害、たとえば性的なフェイク動画の被害者たちは、まだ十分に守られない。このような対象者も守るプログラムも必要だろう。

NO FAKES法のような超党派の立法努力も米国議会では進んでいるが、 法律の整備がAIの進化に追いつくまでには、まだ時間がかかるだろう。だが、問題は、日本では議論もされていないことだ。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください

error: Content is protected !!