ユーチューブは問題のあるコンテンツの拡散防止に向けた努力を続けている。 今回はでの視聴履歴などに合わせて、お薦めの動画を選択するアルゴリズムに変更を加えることで、「ボーダーラインのコンテンツ」が一覧に表示されないようにするという。 ボーダーラインとは、利用規約に違反しているわけではないが、それに近いグレーゾーンの動画のことを指す。 今回の変更を発表したブログ投稿では、以下のように説明されている。 「おすすめ動画のリストから、ボーダーラインのコンテンツやユーザーに有害な偽情報を伝えるコンテンツを減らしていきます。 例えば、信憑性の低い奇跡のような難病治療法、地球平面説のような虚偽、2001年の同時多発テロのような歴史上の出来事について明らかに不正確な主張がなされているような動画です」 これらは一例でしかないが、今回の措置の影響を受ける動画は全体の1パーセント未満だという。 フェイスブックの動きとは無関係? ソーシャルメディア企業は、間違った情報や過激思想を広めることに貢献しているとして、強い批判を浴びている。 コンテンツや付随する広告の視聴回数に応じて報酬を支払うことで、ネット上で無責任に虚偽を巻き散らかしているというのだ。 この問題を巡ってはフェイスブックが昨年11月、ニュースフィードのアルゴリズムを変える方針を明らかにした。 今後は利用規約への違反の有無に関係なく、扇情的な内容のコンテンツは制限するという。 ユーチューブの広報担当者は『WIRED』US版の取材に対し、今回の変更は1年ほど前から検討しており、フェイスブックの動きとは無関係だと説明している。 また、新しいアルゴリズムの運用はまだ初期段階にあり、問題のある動画をすべては拾い切れない可能性もあるとクギを刺している。 ユーチューブは過去1年にわたり、プラットフォームの「浄化」にかなりの労力を注ぎ込んでいる。 7月には報道機関への投資に加え、速報性のあるニュースに関しては「信頼に足る」ニュースソースだけを選んでフィードの上位に置くことを決めた。 また、陰謀論のような動画にはWikipediaのリンクを表示する、社会的に有益なコンテンツを作成していると判断したクリエイターに対して支援を行うといった[日本語版記事]。 言うは易し行うは難し おすすめ動画を選ぶアルゴリズムは、ユーザーの好みを分析して喜ばれそうなコンテンツを選ぶよう、長い時間をかけて訓練されてきた。 極右的な主張の陰謀論の動画をよく見ているユーザーなら、システムはさらに過激なコンテンツを探してくるだろう。 コロンビア大学のタウ・センター・フォー・デジタルジャーナリズムの研究者ジョナサン・オルブライトは、昨年2月にフロリダ州パークランドで起きた高校での銃乱射事件の直後に、YouTubeで「クライシスアクター」[編註:政府の監視などを正当化するための偽旗作戦に参加する人々のこと]と検索した。 すると最終的に、9,000件におよぶ陰謀論の動画の山にたどり着いたという。 また『BuzzFeed』の記事を読むと、ごく普通の動画から極端な思想を喧伝する動画に連れていかれてしまうまでのメカニズムがよくわかる。 ユーチューブは、おすすめ動画から問題のあるコンテンツを取り除けば、こうした事態は生じないと考えたのだ。 ただ言うは易し行うは難しで、広報担当者によると、はじめは対象となるグレーゾーンの動画を人力で特定していく必要があるという。 つまり、人間が一つひとつ動画を見たあとに一連の質問に答え、蓄積されたデータを使ってアルゴリズムを訓練するのだ。 この手法は親会社のグーグルも検索サーヴィスの最適化のために採用している。 曖昧になる境界線 コンテンツが適切か不適切かを判断するために、どのような指標が使われるかは明らかになっていない。 ユーチューブの広報担当者は詳細には言及できないとした上で、動画のタイトルや説明文から特定の単語を検出するだけでなく、それ以上のことをやっていくと話していた。 一方で、こうした努力は批判を受ける可能性も高い。 ソーシャルメディア企業はすべてを善か悪かに分類して、コンテンツの検閲を行おうとしているというのだ。 ユーチューブもフェイスブックも利用規約を一般に公開しており、プラットフォームで許される行為と禁じられる行為との間にははっきりとした線引きがなされている。 利用規約に関しては、以前から適用基準が恣意的だとの指摘があった。 今回、新たにグレーゾーンが設けられれば、受け入れられるコンテンツとそうでないコンテンツとの区切りはさらに曖昧になるだろう。 YouTubeが保とうとするバランス ユーチューブはこれに対して、一般的に問題があるとみなした動画でも、利用規約違反でなければプラットフォームから取り除くことはしないと強調する。 おすすめ動画のリストに表示されないだけで、検索結果には現れるし、例えば同時多発テロを政府の陰謀だと信じているユーザーが、その手の陰謀説を広めているチャンネルを登録できなくなるといった事態が生じるわけでもない。
次のあらすじ [ ] デザイナーを目指してミラノに留学していた桜()は、兄・一也()が急病という知らせを受けて帰国。 しかしそれはウソで、兄は自分勝手に放浪の旅に。 後に残った借金と自分の子供三人を、ていよく妹に押し付けようという陰謀だったのだ。 激怒する桜だが、幼馴染のお隣さん・浩二()率いる鶴田三兄弟もからんだドタバタ騒ぎに巻き込まれ、帰るに帰れないまま、なしくずしにお好み焼き屋に住み込み開始。 店を切り盛りし、姪っ子甥っ子たちの面倒を見るハメになってしまう。 元ツッパリで、零コンマ数秒で相手をぶん殴る桜のアダ名はコンマ女。 対する浩二は、短気ですぐ赤くなるタコ男。 この二人を中心に繰り広げられるアホらしくも壮絶な恋愛戦争。 キャスト [ ]• 沢野桜:• 高倉賢:• 鶴田裕二:• 沢野春代:• 鶴田昭二:• 沢野夏海:• 沢野秋穂:• 鴉雪次郎:• 柏木彩乃:• 徳大寺:• さより:• 天地啓介:• 桂星子:• 緑山千鶴:• 沢野一也:(スペシャルサンクス)• 鶴田浩二: テーマ曲 [ ]• 主題歌「ぜったい きっと 好き」• 挿入歌「if…」 スタッフ [ ]• 脚本:• プロデュース:• 演出:、、、• 制作:TBS、 受賞歴 [ ]• 第5回• ベストドレッサー賞(松雪泰子) サブタイトル [ ]• イタリア・コンマ• 祝 お好み焼き屋開店• 家庭訪問• ブロードウェイ出演• 会長選挙へ立候補• 春代の反抗• そんなとこ、スキ• ショック!隣に赤ちゃんが来た• 本当?プロポーズされちゃった• 妹が妊娠?結婚するっきゃナイ• 桜が最後に選んだことは…? 系 火曜21時台 前番組 番組名 次番組.
次のユーチューブは問題のあるコンテンツの拡散防止に向けた努力を続けている。 今回はでの視聴履歴などに合わせて、お薦めの動画を選択するアルゴリズムに変更を加えることで、「ボーダーラインのコンテンツ」が一覧に表示されないようにするという。 ボーダーラインとは、利用規約に違反しているわけではないが、それに近いグレーゾーンの動画のことを指す。 今回の変更を発表したブログ投稿では、以下のように説明されている。 「おすすめ動画のリストから、ボーダーラインのコンテンツやユーザーに有害な偽情報を伝えるコンテンツを減らしていきます。 例えば、信憑性の低い奇跡のような難病治療法、地球平面説のような虚偽、2001年の同時多発テロのような歴史上の出来事について明らかに不正確な主張がなされているような動画です」 これらは一例でしかないが、今回の措置の影響を受ける動画は全体の1パーセント未満だという。 フェイスブックの動きとは無関係? ソーシャルメディア企業は、間違った情報や過激思想を広めることに貢献しているとして、強い批判を浴びている。 コンテンツや付随する広告の視聴回数に応じて報酬を支払うことで、ネット上で無責任に虚偽を巻き散らかしているというのだ。 この問題を巡ってはフェイスブックが昨年11月、ニュースフィードのアルゴリズムを変える方針を明らかにした。 今後は利用規約への違反の有無に関係なく、扇情的な内容のコンテンツは制限するという。 ユーチューブの広報担当者は『WIRED』US版の取材に対し、今回の変更は1年ほど前から検討しており、フェイスブックの動きとは無関係だと説明している。 また、新しいアルゴリズムの運用はまだ初期段階にあり、問題のある動画をすべては拾い切れない可能性もあるとクギを刺している。 ユーチューブは過去1年にわたり、プラットフォームの「浄化」にかなりの労力を注ぎ込んでいる。 7月には報道機関への投資に加え、速報性のあるニュースに関しては「信頼に足る」ニュースソースだけを選んでフィードの上位に置くことを決めた。 また、陰謀論のような動画にはWikipediaのリンクを表示する、社会的に有益なコンテンツを作成していると判断したクリエイターに対して支援を行うといった[日本語版記事]。 言うは易し行うは難し おすすめ動画を選ぶアルゴリズムは、ユーザーの好みを分析して喜ばれそうなコンテンツを選ぶよう、長い時間をかけて訓練されてきた。 極右的な主張の陰謀論の動画をよく見ているユーザーなら、システムはさらに過激なコンテンツを探してくるだろう。 コロンビア大学のタウ・センター・フォー・デジタルジャーナリズムの研究者ジョナサン・オルブライトは、昨年2月にフロリダ州パークランドで起きた高校での銃乱射事件の直後に、YouTubeで「クライシスアクター」[編註:政府の監視などを正当化するための偽旗作戦に参加する人々のこと]と検索した。 すると最終的に、9,000件におよぶ陰謀論の動画の山にたどり着いたという。 また『BuzzFeed』の記事を読むと、ごく普通の動画から極端な思想を喧伝する動画に連れていかれてしまうまでのメカニズムがよくわかる。 ユーチューブは、おすすめ動画から問題のあるコンテンツを取り除けば、こうした事態は生じないと考えたのだ。 ただ言うは易し行うは難しで、広報担当者によると、はじめは対象となるグレーゾーンの動画を人力で特定していく必要があるという。 つまり、人間が一つひとつ動画を見たあとに一連の質問に答え、蓄積されたデータを使ってアルゴリズムを訓練するのだ。 この手法は親会社のグーグルも検索サーヴィスの最適化のために採用している。 曖昧になる境界線 コンテンツが適切か不適切かを判断するために、どのような指標が使われるかは明らかになっていない。 ユーチューブの広報担当者は詳細には言及できないとした上で、動画のタイトルや説明文から特定の単語を検出するだけでなく、それ以上のことをやっていくと話していた。 一方で、こうした努力は批判を受ける可能性も高い。 ソーシャルメディア企業はすべてを善か悪かに分類して、コンテンツの検閲を行おうとしているというのだ。 ユーチューブもフェイスブックも利用規約を一般に公開しており、プラットフォームで許される行為と禁じられる行為との間にははっきりとした線引きがなされている。 利用規約に関しては、以前から適用基準が恣意的だとの指摘があった。 今回、新たにグレーゾーンが設けられれば、受け入れられるコンテンツとそうでないコンテンツとの区切りはさらに曖昧になるだろう。 YouTubeが保とうとするバランス ユーチューブはこれに対して、一般的に問題があるとみなした動画でも、利用規約違反でなければプラットフォームから取り除くことはしないと強調する。 おすすめ動画のリストに表示されないだけで、検索結果には現れるし、例えば同時多発テロを政府の陰謀だと信じているユーザーが、その手の陰謀説を広めているチャンネルを登録できなくなるといった事態が生じるわけでもない。
次の