SNSはウソばかり?FacebookやGoogleなどが“フェイクニュース”対策に動く

2017.08.01
リスト
このエントリーをはてなブックマークに追加

「フェイクニュース(Fake News)」という言葉を最近、良く耳にするようになりました。フェイク(Fake)とは「偽の」「まやかしの」と意味で、「よく調べればウソだった」という投稿を指しています。このフェイクニュースがSNS(ソーシャルメディア)を賑わし、選挙結果などにも影響を与えていると指摘されています。誰もが情報を発信できることを逆手にとった行為は、ネットの信頼を損ねかねません。米Facebookや米Googleなどがフェイクニュース対策を強化しています。対策を競うコンテストも始まっています。どうやってフェイクニュースを見抜こうというのでしょうか。

Twitterの投稿の3分の1がフェイク?

フェイクニュースが大きく問題視されたのは、米国やフランスの大統領選挙などにおいて、フェイクニュースが選挙結果を左右したのではないかと指摘されたためです。米国のドナルド・トランプ大統領は、自身に不利な情報を発信するニュースを「フェイクニュースだ」と呼び、大手メディアとの敵対姿勢を見せています。一方で敗戦したヒラリー・クリントン氏も「特定の投稿がなければ選挙結果は違っていた」としています。

フランスの大統領選においても、英オックスフォード大学のインターネット研究所(Oxford Internet Institute)が同期間のTwitterへの投稿を分析したところ、他サイトへのリンクを含む投稿のうち3分の1が、出所が分からない情報へリンクを張っていました。つまり、真偽不明な情報を元に様々な意見が、まことしやかに発言されていたということです。

2015年11月13日に発生した「パリ同時多発テロ事件」では、巧妙なフェイクニュースが拡散されました。Facebookに投稿された『Muslims Around The World Celebrate The Islamic Victory In Paris France』という動画が多数のブログやWebサイトに引用され、わずか1時間でおよそ45万ものページビュー(閲覧数)を集めたのです(動画1)。ところが、この動画は2009年に実施されたクリケットの国際試合において、パキスタン代表の勝利を喜ぶロンドン在住のパキスタン人の様子を写したもので、パリ同時多発テロ事件とは全く関係ありませんでした。

動画:「パリ同時多発テロ事件」の関連動画として拡散したフェイクニュース

Facebookは“釣り見出し”を基準にフェイクニュースを排除

こうしたフェイクニュースは、よくよく見てみたり関連情報を検索したりすれば“ウソ”だと分かるものが多いのですが、ソーシャルメディアが備える「いいね」や「シェア」といった仕組みは、読み手による確認がないままに、一気に拡散してしまうことにつながってもいます。しかし、あまりにもフェイクニュースがまん延すれば、そのSNSの存在価値を損ねてしまいます。そこでFacebookやGoogleといったネット事業者大手が、フェイクニュースを排除するための対策を立て始めています。

Facebookは実は、2014年8月の時点からフェイクニュース対策に着手しています。同社が着目しているのは投稿に貼り付けられた見出しです。読者がクリックするように誘っている「釣り見出し(Click-Baiting Headlines)」を検知し、それらを読者の目に触れにくくなるように表示順位を変更します。

釣り見出しの検知方法の1つは、その見出しをクリックした先での滞在時間の計測です。長時間滞在していれば、読者は、その記事に価値を見出し、じっくりと読んでいると判断。逆にすぐにFacebookに戻ってくるようなら、リンク先には見出しから読者が期待するような情報はないと判断するわけです。もう1つは、リンク先の記事に対する読者の行動です。Facebook上で「いいね」ボタンを押したり、友達と議論を交わしたりする記事であれば、その見出しは良質な見出しだとし、反応や議論がほとんどない見出しは“釣り”だと判断します。

2016年8月4日からは、見出し自体も分析しています。「記事の中身を示す情報を隠していないか」「読者が記事を読み誤ることを狙って誇張した表現を使っていないか」の2つの観点から評価するとしています。例えば「驚くこと間違いなし。レッドカーペットで転倒したのは・・・」という見出しは、記事の中身を示す情報が隠されている判断します。また「本当のところ、リンゴは体に悪い?!」であれば、記事を読み誤ることを狙っていると判断します。この基準でFacebookの社内チームが見出しを1万種類に分類することで、大部分の釣り見出しを排除できているとしています。

Googleはアルゴリズムと人力の組み合わせで対処

Googleもフェイクニュース対策に取り組んでいます。元々、同社は「最も信頼できる情報源から、関連する情報を利用者に提供する」を掲げ、各種アルゴリズムの改善や機能追加などに取り組む同社ですが2017年4月25日、副社長のBen Gomes氏がブログで、「(フェイクニュースは)これまで対処してきた問題とは性質が異なる」とし、本格的に取り組むことを宣言しました。

詳細は公開されていませんが、まずアルゴリズムにおいては、信頼できるページを上位に表示し、品質が低いページのランキングを下げるよう改善しました。加えて、人手による改善も実施しています。具体的には、Googleの検索結果の品質を評価する「検索品質評価者」に配布する「検索品質評価ガイドライン」を改訂しました。誤解を招く情報や悪意のある情報、根拠のない陰謀説などについて、詳細な例を追記し、フェイクニュースにつながる検索結果をより厳密に見つけら得るようにするのが狙いです。品質評価者のフィードバックは検索エンジンのアルゴリズムにも反映されます。人間の目で検出した結果からアルゴリズムを改善しているというわけです。

アルゴリズムへのフィードバックには検索エンジンの利用者も参加できます。例えばGoogleで検索キーワードを入力すると、関連する言葉が組み合わされた検索語候補が表示されますが、この組み合わせが不適切だと感じれば、検索語候補の右下に現れる「不適切な検索候補の報告」というリンクをクリックすれば、「どの候補が、どういう理由で不適切なのか」を簡単にGoogleに報告できます(図1)。ほかにも、検索結果の最上位のさらに上に検索語に関する簡単な説明などを表示する「強調スニペット」を評価したり、検索結果表示画面の最下部にある「フィードバックを送信」リンクからフィードバックを返せます。

AIでフェイクニュースの自動検出率を争うコンテストも

企業の取り組みと並行して、一般のエンジニアの力を借りようとする草の根運動もあります。AI(人工知能)を使ってフェイクニュースの検出率を高めるコンテスト「Fake News Challenge」がそれです。機械学習や自然言語処理といったテクノロジーで、ニュース記事に隠れている“ウソ”や“誤報”を検出します。2016年12月に参加チームが募集され、28チームが参加。2017年6月15日に発表された結果によれば、トップチームは、見出しや記事の中身を82.02%の確率で正しく読み解いたそうです。

Fake News Challengeの競技内容は、簡単に言えば、見出しと本文を比較し、その関係を「Agrees」「Disagrees」「Discusses」「Unrelated」の4つに分類すること(図2)。Agreesは、見出しと本文の内容が一致するもの、Disagreesは、見出しと本文は同じ話題を論じているが結論などが一致しないものです。Discussesは、見出しと本文は同じ話題を書いているが、特定の立場に立たないもの、Unrelatedは、本文が見出しとは関係ないことを説明しているものです。主催者はFake News Challengeの続編となるコンテストの開催を予定しています。

インターネットが普及し大量のWebサイトが公開された段階では、ネット利用者のスキルの1つとして「役に立つ情報を見極めること」が挙げられました。しかし、ソーシャルメディアが普及し誰もが簡単に情報を発信し拡散できるようになったことで“見極め”そのものが難しくなりました。しかもインターネットに出てしまった情報は一度、拡散されてしまうと修正や撤回は、ほぼ不可能です。今後は、情報の受け手に対しても「正しい情報を発信・拡散する責任」が求められようとしています。

執筆者:臼井 雅裕(Digital Innovation Lab)、笹田 仁(ITジャーナリスト)

EVENTイベント