YouTubeはネットメディアではあるが、家庭用のテレビ端末にも進出し、すでにリモコンにボタンがつくほどの一般的なメディアに進化している。2022年のGoogleの発表よれば、月刊アクティブユーザ数は26億人で、これは1位のFacebookの29億人に次いで、世界第2位。日本のユーザ数は2021年の数字で7,815万人2025年には9,762万人に達すると予測されている。
YouTubeの1日の視聴時間は15億時間を超えており、テレビ端末でも見る見られるが、70%以上は、スマートフォン、タブレットなどのモバイルデバイスで見られている。思ったよりテレビは少ない。インターネットに繋がったコネクティッドTVはまだ少ないからだろう。
YouTubeには毎分500時間分の動画がアップロードされている。当然、この内容は様々で多岐にわたる。これを人間が確認することなどできないだろう。このためにYouTubeは機械学習アルゴリズムと人間のレビュアーがコンテンツを監視して、YouTubeのコミュニティーガイドラインに基づいて判断し、違反しているものは削除する。YouTubeは2023年1月から3月の間にガイドライン違反で190万本の動画を削除していることを発表している。これ以外にも、不適切な動画については、黒い画面になるような制限も加えられれている。
手順としては、問題のある動画として、フラグが建てられ、機械だけで判断つかないものが、人間のレビュアーが見て判断する。2023年の数字では93%は人間ではなく、機械学習アルゴリズムがフラグを立てている。
また、同時期に8億5300万以上のコメントを削除し、その大半はスパムだったそうだ。これらの削除されたコメントの99%以上が自動的に検出され削除されていると言う。
YouTubeのコミュニティーガイドラインは、プラットフォーム上の動画の全てに適用され、動画だけではなく、コメントリンク、サムネイルなどすべてのコンテンツに適用される。
YouTubeのコミュニティーガイドライン
1.スパムと詐欺的な行為: 偽のエンゲージメント、なりすまし、外部リンクなど。
2.センシティブなコンテンツ: 子供の安全、サムネイル、裸体や性的なコンテンツ、自殺や自傷、卑猥な言葉。
3.暴力または危険なコンテンツ: ハラスメント、サイバーブリーチング、有害または危険なコンテンツ、ヘイトスピーチ。
4.規制された商品: 銃器、違法または規制された商品やサービスの販売。
5.誤情報: 一般的な誤情報、選挙に関する誤情報、医療に関する誤情報。
このようなガイドラインがあるために、ユーチューバーは使う言葉を慎重に選んでいるようだし、テロップでも問題のありそうな言葉についてはそのまま表示しないようにしているようだ。
YouTubeは初期には著作権違反等も含めて問題のある動画が多かった。それが、今のような影響力のあるメディアで、巨額の広告収入を上げるメディアになるまでには、コミュニティーガイドラインも含めて多くの工夫があったのだろう。長時間の動画を人間が見ることができないので、内容を監視するためにシステム開発にも多額の資金と人材が投入されてきたことが想像される。