クリエイター動画制作マガジン

YouTube関連情報

YouTubeの「有害コンテンツ排除AI」は実用レベルに達しているか?【現状の課題分析】

今回は、YouTubeにおける動画をとりまく状況をご紹介しつつ、有害コンテンツ排除のために利用されているAIの課題についてご紹介します。
誤BAN被害などに遭わないためにも、YouTubeの利用者として知っておくべき内容なので、ぜひ最後までご覧ください。

YouTubeには嫌がらせやヘイトスピーチが数多くアップロードされている

YouTubeといえば、あらゆるカテゴリの動画や音源などがアップロードされるプラットフォームですが、昨今では「嫌がらせ」や「ヘイトスピーチ」などの内容を伴うものが増えてきている現状をご存知でしょうか。

この章では、YouTubeの公式サイトが半年に一度の頻度で公表している透明性レポートにて、不適切動画の件数などを見ながら、YouTubeにおける課題を整理していきます。

⇒Google透明性レポート(YouTube)

YouTubeに投稿された不適切動画の申告数と申し立て理由内訳(2022年1月~6月)

まずは、2022年1月~6月の間に報告されたYouTubeに投稿された不適切動画の申告数(申告理由別)についてです。

YouTube不正申請数

出典:Google透明性レポート(YouTube)不適切動画の申告数と申し立て理由内訳

上記のグラフは、2022年1月~6月の間に、YouTubeの不適切動画としてGoogle に報告された項目の数を、申し立ての理由別に示しています。

半年間合計で、282,858件もの動画がYouTubeに投稿された不適切動画として申し立てされていることがわかります。
つまり、1ヶ月あたり47,143件、1日あたり1,571件にも上ります。
中でも、「悪意のある表現や政治的な過激主義」についての申告件数が最も多く、次いで「性的なコンテンツ」の申告件数が多いことがわかります。

これだけの件数が日々報告され、その内容を1つずつ精査して、Googleの定めるガイドラインに違反していないかを確認していくのは、かなりの労力のかかる作業であろうことが推測されます。

YouTubeに投稿された不適切動画の削除件数(2022年1月~6月)

次に、Googleに「YouTubeの不適切動画」として報告されたコンテンツのうち、ガイドライン違反が認められて実際に削除された件数をみていきます。

YouTube不正申請数

出典:Google透明性レポート(YouTube)不適切動画の削除件数

半年間合計で、不適切動画として申し立てされた内、50,717件の動画が不適切動画として削除されています。
不適切だと申告された動画の報告数282,858件に対して、約18%の動画が実際に削除されたことになります。

特に、「悪意のある表現や政治的な過激主義」については突出して削除件数が多く、このカテゴリだけで見ると約33%が削除対象となっていることがわかります。

このように、今回のテーマでもある「嫌がらせ」や「ヘイトスピーチ」が多くの不適切動画として報告され、実際に削除されているという現状をお分かりいただけたと思います。

YouTubeに投稿された違法な不適切動画の削除までの所要時間(申し立て理由別)

次に、YouTubeに投稿された不適切動画の中で、「犯罪に該当し、違法と判断された項目」が、実際に削除されるまでの所要時間を見てみます。

YouTube不正申請数

出典:Google透明性レポート(YouTube)削除までの所要時間

全体傾向として、大半の動画が24時間未満に削除されていることがわかります。

ここまで見てきたように、大量の動画が日々不適切動画として報告され、1つ1つの動画をチェックしていることを考えると、非常にスピーディに処理がされていることがお分かりいただけると思います。

この背景には、「YouTubeの有害コンテンツ排除AI」の活躍があります。

YouTube不正

YouTubeの有害コンテンツ削除におけるAIの活躍

YouTubeには大量の動画が日々アップロードされ、有害コンテンツとされて報告されてくる動画も数多くあることをみてきました。
大量の動画に対してガイドライン違反がないかを確認するために、人力だけでは追いつかないため、GoogleはAIを導入しています。

この章では、AIの導入により、どのような恩恵が受けられているのかについてご紹介します。

AIによりYouTubeに投稿された不適切動画の削除スピードは向上している

2017年の6月に、Googleはテロリズムや過激な動画をプラットフォーム上から排除するために、AIに注力することが公式の技術ブログにて発表されています。

出典:オンラインでテロと戦うために私たちが今日取っている 4 つのステップ

その半年後である2018年1月〜6月と、直近(2022年1月〜6月)の動画削除にかかる所要時間(申し立て理由別)を見てみたいと思います。

<2018年1月〜6月にYouTubeに投稿された違法な不適切動画の削除までの時間>

理由24時間未満48時間未満1週間未満それ以上 
プライバシー2,794774659446
名誉毀損または侮辱11,04611217694
有害または危険な行為2,4965815259
性的なコンテンツ7,0426218054
テロリストまたは違憲コンテンツ3,1315211230
悪意のある表現や政治的な過激主義23,956285447116
暴力3,7346011060
合計51,7211,4031,836859

<2022年1月〜6月にYouTubeに投稿された違法な不適切動画の削除までの時間>

理由24時間未満48時間未満1週間未満それ以上 
プライバシー10411169
名誉毀損または侮辱1,63022710517
有害または危険な行為1211373
性的なコンテンツ94952
テロリストまたは違憲コンテンツ32330398
悪意のある表現や政治的な過激主義1,5281429040
暴力1861980
合計3,98645127079

上記の表を見ていただくとわかる通り、違法な不適切動画の削除件数が直近の方が圧倒的に少なくなっています。

GoogleがYouTubeに導入している最新鋭のAIは、画像認識技術により、不適切動画として削除されたコンテンツと類似する動画は不適切動画の可能性が高いものとして、アップロード時点でのチェックも含め、報告される前に自動で削除されるようになっています。

そのため、不適切動画の報告件数自体は、YouTube全体の動画投稿数が増加すると共に増えているものの、「違法な不適切動画の削除件数」は、数年前と比べると圧倒的に減っており、プラットフォーム全体の健全化が進んでいるとも言えます。

AIは、24時間365日、安定した稼働を続けられるため、YouTubeにとってAIの導入は必須な状況になっています。

AI動画解析

AIによる有害コンテンツ排除の問題点

上記では、YouTubeにおける有害コンテンツの排除に対するAIの有用性について解説してきました。
膨大な動画数を誇るYouTubeにとって、AIの活用は必須の状況ではあります。しかし、必ずしもメリットばかりではありません。

この章では、AIを導入した結果、発生している問題点について解説します。

AIの誤判定による動画削除が問題となっている

まずはAIの誤判定によって、削除されるべきではない動画まで削除されてしまっている点についてです。

これには2つの原因があります。

①行き過ぎた検閲による排除

YouTubeに動画をアップロードして収益を受けるためには、YouTubeパートナープログラム(YPP)に加入する必要があります。

このYPPには様々なポリシーがあり、このポリシーを遵守することが加入条件の1つになっていますが、YouTubeは、2019年12月11日に「嫌がらせやネットいじめに関するポリシー」を更新しました。
ポリシーの改訂内容のうちの1つとして、削除対処とする動画のタイプが拡大されています。

従来、YouTubeは、「おまえを殺してやる」というような直接的な脅ししか削除対象となりませんでしたが、潜在的だったり暗示的だったりする脅しも削除するように変更されています。
直接的な表現を避けて、ポリシーを回避しようとする悪質な動画が増えてきたことによる措置であるものと考えられます。

出典:YouTube|ハラスメントやネットいじめに関するポリシー

これに合わせて、YouTubeパートナープログラム(YPP)のポリシーも強化され、嫌がらせを繰り返すチャンネルはYPPから除外されるようになりました。
これにより悪質なユーザーがYouTubeで収益を上げられなくなり、最終的にはチャンネルごと消されることになります。

一方で、ブラックジョークや人によってはユーモアとして受け取られる内容についても、機械的な切り分けの結果、嫌がらせとして削除対象となってしまうケースも増加しています。

このままでは、誰か1人でも傷つく可能性のある動画は一切アップロードできず、動画の多様性やコンテンツの魅力が損なわれる可能性が危惧されています。

②画像の誤判定による削除

上記でも少し触れましたが、AIでは、アップロードされた動画に対して、過去の不適切動画とされるコンテンツとの類似点がないかどうかを確認するために画像判定技術を用いています。

その結果、ガイドライン違反ではない内容であるにも関わらず、色や輪郭が不適切なものであるとして動画が削除されたり、ライブ配信が停止される状況も発生しています。

たとえば、砂漠が裸体として判定されたり、赤いものが血液として判定されるなど、人の目によるチェックであれば問題ないものが、AIではセンシティブな動画であると誤認定されることがあります。
また、きちんと成人していても見た目が若い為、未成年と判断され、「未成年に対する厳しいポリシー」が誤って適応されてしまい、動画の削除対象となってしまう事例もあります。

YouTubeのAIの誤判定を悪用した迷惑行為が増加してきている

最近では、YouTubeAIの自動判定機能を悪用した、迷惑行為も増加してきています。

具体的な事例としては、YouTubeライブ配信におけるコメント機能で、卑猥なアイコンを使ったアカウントで卑猥なコメントがリアルタイムに連投されることで、AIにアダルトな配信であると誤認させ、配信者のチャンネルがBANされるというものです。
最近は、歌い手VTuberなどによるライブ配信も増加しており、深刻な問題となっています。

誤判定が排除できない以上、人手をなくすことはできない

ここまで見てきたように、YouTubeにおける有害コンテンツの排除に対して、AIは重要な役割をになっている一方で、誤判定のリスクが顕在化しているという問題点があります。

誤判定をなくすために、AIの技術的な改善はされていくことが想定されますが、それでも100%正確な判定をすることは機械である以上、困難だと思われます。

結果的に、AIで一次切り分けを行い、ダブルチェックとしての人手をなくすことはできないでしょう。

YouTube不正

まとめ

今回は、YouTubeにおける不適切動画に対するAIを活用したチェックの方法や、不適切動画の対象件数の推移からの分析、そして、AI導入により発生している問題点について解説しました。

YouTubeで動画を配信している方、YouTubeでの収益化を目指している方は、必ず知っておくべき事項なので、ぜひこの記事を参考に、AIによる誤判定のリスクについて認識していただければと思います。

Goody!TVクリエイター募集中
無料動画サイトとデジタルサイネージの2つメディアで配信!

  • 記事を書いたライター
  • ライターの新着記事
elle/える

elle/える

Goody!TVの提携外部ライターです。YouTubeでファッションチャンネルを運営中。

Youtubeにてファッションやヘアアレンジ・ダイエットに関する情報を発信するチャンネルを運営しています。 自分が低身長であることから、似合う洋服が少なかったり、スタイルが良くみえなかったりといった悩みを抱えていた経験をもとに、ZARAやUNIQLOといった人気ブランドを中心とした低身長でもカッコよく・可愛く見えるコーディネートや、短期間で健康的にダイエットに成功した経験談などを発信しております。 同じく低身長で悩んでいる方、理想の自分になるためにダイエットを成功させたい!という方はぜひ一度、気になる動画を見ていただけるとうれしいです!

  1. YouTubeの「有害コンテンツ排除AI」は実用レベルに達しているか?【現状の課題分析】

  2. 【動画編集】 脱初心者!見栄えのいい動画編集のコツ 【初心者向け講座2】

  3. 【動画編集】 誰でもすぐに始められる動画編集! 【初心者向け講座1】

コメント

この記事へのコメントはありません。

RECOMMEND

RELATED

この記事に関連した動画制作・YouTubeに関するおすすめ情報です。

PAGE TOP