YouTube、新しいコメント機能を発表--不適切な内容の自動検出など

CNET Japan 11月04日(金)08時40分配信

 YouTubeは米国時間11月3日、不適切な内容を含む可能性のあるコメントを自動的に特定し、確認のために保留するテスト機能を導入することを明らかにした。この新しいベータ版のツールを適用するよう選択すれば、アルゴリズムが特定したコメントは保留になり、クリエイター(動画制作者)が承認、非表示、または報告するかどうかを判断できるようになる。

 コメント内の特定の単語やフレーズをブラックリストに登録するYouTubeの既存のツールに少し似ているが、それよりも強化されている。YouTubeのアリゴリズムは、クリエイターがこれまでに削除したコメントと同じ特徴を持つコメントや、不適切な言葉を含む可能性を示すような要素のあるコメントを検出する。

 「アルゴリズムは常に正確であるとは限らないと認識している。ベータ版では、問題なく承認できるはずのコメントが保留されたり、ユーザーが保留して削除したいと考えるコメントが検出されなかったりする可能性がある」とYouTubeはブログ記事で説明している。「ユーザーがコメントを確認すると、システムはそのフィードバックを考慮し、保留して確認できるコメントの種類を識別する能力を高めていく」(YouTube)

 さらにYouTubeは、コメントをピン留めする機能(特定のコメントをフィードの先頭に表示する)、気に入ったコメントを示す機能、クリエイターのユーザー名を強調する機能(クリエイターのユーザー名のテキストに色を付けて、クリエイターのコメントがフィードで目立つようにする)などのツールも導入している。承認済みクリエイターにはこれまでどおり、名前の横に承認済みを示すチェックマークが表示される。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japan
もっと見る もっと見る

【あわせて読む】

    最終更新: 11月04日(金)08時40分

    【関連ニュース】

    【コメント】

    • ※コメントは個人の見解であり、記事提供社と関係はありません。

    【あなたにおススメ】