投資家のクリシュナ・バラットさんが、ミディアム上のメディア「ニューコ・シフト」に「フェイクニュースをリアルタイムで検知するには」と題した投稿をしたことが、話題を呼んでいる。
バラットさんといえば、2002年にニュースのアグリゲーションサービス「グーグルニュース」を立ち上げたこの道の専門家だ。
そのバラットさんが、フェイクニュース検知の仕組みを提言した上で、自らの古巣を含むネット大手にクギを刺しているのだ。
フェイクニュースを止めるための最大の課題は、技術的なことではない。経営陣のやる気だ。
その古巣、グーグルは3日前、フェイクニュースやヘイトコンテンツ表示への批判を受けて、検索ランキングのアルゴリズムの見直しを含む「プロジェクト・アウル」と呼ばれる新たな排除の取り組みを公表している。
だが、プラットフォーム企業は、その規模にふさわしい責任を果たすだけの真剣さで取り組んでいるのか――バラットさんは、そう問い掛けている。
●9.11をきっかけに
クリシュナ・バラットさんは、グーグルのリサーチサイエンティストとして、2002年に、人間の手を介さず、アルゴリズムだけでニュースをアグリゲートするグーグルニュースのベータ版を立ち上げ、2006年には正式版をリリースした。
インド・バンガロールのグーグル研究開発センターを立ち上げ、所長を務めた後、2015年にグーグルを離れている。
グーグルニュースの開発のきっかけについて、「ニュースジャンキー(中毒者)」を自称するバラットさんは、当時のインタビューでこう述べている。
9.11同時多発テロの後、すべての新聞が「フー(誰が)」「ワット(何が)」「フェン(いつ)」「フェア(どこで)」を記録し続けている時――「ホワイ(なぜ)」についての大きな疑問が残ってた。なぜ、こんなことが起きたんだ? 未来に向けて何が起ころうとしているのか? 多くの人々がニュースを探して多くの時間を費やしていたし、私もその一人だった。すべてのサーバーは遅延し、コンテンツを見つけるのにも長い時間がかかった。私は心の底から、この作業を自動化するようなツールをつくりたいと思った。ここで新たな展開が起きている、この展開について伝えている全ての記事を見つけ出そう、と。
●リアルタイムに検知する
バラットさんは、28日に掲載した「フェイクニュースをリアルタイムで検知するには」で、このグーグルニュース開発、運営の知見などをもとに、どのような仕組みがフェイクニュース対策に必要かを検討している。
バラットさんは、フェイクニュースの拡散の「波」が「津波」になる前に、前兆を自動検知し、それを制御するかどうかを人間が判断すればいい、と提言する。そして、グーグルニュースの開発と運営に長年携わった経験から、「(フェイクニュースの)検知は扱いやすい、と思っている」。
具体的に考えてみよう:例えばソーシャルメディアのプラットフォームが、フェイクニュースが1万件の共有を獲得するまでにしっかりと対処をしたい、と決めたとする。その達成のためには、その「波」が1000件の共有を得た段階でフラグを立て、人間の評価者がそれについて調べ、対応する時間を確保できるようにしたいと思うだろう。検索の場合は、共有の代わりにクエリー(検索)やクリックの数を調べ、判断の閾値はより高くなるだろうが、全体のロジックは同じだ。
そして、「波」の高まりの洗い出しには、まさにグーグルニュースなどで行っている、カテゴリー分類が生かせる、と述べる。
これを大規模なスケールで実行する場合、ソーシャルネットワークや検索エンジンにおいては、直近6〜12時間の(既知もしくは不明なソースからの)すべての最新記事をアルゴリズムで見ていくことになる。対象範囲を限定するために、いくつかのトリガーとなる単語(政治家の名前、議論となっているテーマ、など)やニュースのカテゴリー(政治、犯罪、移民、など)と一致するもの、という条件付けができる。これにより、対象記事は1万件前後に絞り込める。これらの記事は、分析、グループ化ののち、重要なキーワード、日付、引用、フレーズなどの共通する特徴ごとに、「ストーリーバケット」にまとめられる。いずれも技術的には難しいものではない。コンピューターサイエンスの分野では、何十年にもわたって行われてきたことで、「ドキュメントクラスタリング」と呼ばれている。
これらの分類作業の上で、検知作業に入る。
ある「ストーリーバケット」に入った記事は、同じニュースについて述べている。この手法はグーグルニュースやビングニュースで採用され、同じニュースについての記事をグループ化したり、それらの記事を互いに比較したりする上で、うまく機能している。もし2つの別々のソースが"ローマ法王"と"トランプ"、さらに"支持"に類する言葉に、短期間のうちに言及していれば、それらは同じバケットに入る。これにより、あるニュースについての、様々なニュースソースでの扱いをすべて把握する大きな手助けになる。それに、ソーシャルメディア上でのコンテクストを加える、例えば、これらの記事についての投稿だ。それにより、完全な「波」を捉えられる。最も重要なのは、これによって、私たちはどのニュースソースや発信者が特定のニュースを拡散させていて、それに関与していないのはどこか、ということが全体像として把握できることだ。
●倫理的な責任を理解しているか?
バラットさんは、その上でこうクギを刺す。「フェイクニュースを止めるための最大の課題は、技術的なことではない。経営陣のやる気だ」
大手のプラットフォームの規模と成功こそが、真実に対する大規模な攻撃を可能にした、第1の原因だ。そして彼らはそれを修復するためのベストポジションにいる。センサーを設置し、レバーを引き、トラフィックと収入の道を断つことで、フェイクニュースを制圧できる。
だが、その気はあるのか、とバラットさん。
私が懸念しているのは、それらの企業の経営陣が、倫理的な責任を理解し、大規模な取り組みを行う意志を持ち、必要なシステム投資を行い、真剣に実行していくのか、という点だ。彼らが不誠実だとか、ビジネス的な利益を優先している、ということではない――それが理由だとは全く思っていない――そうではなくて、ミスや失敗があった時の責任を取らされたくない、と思うかもしれないからだ。それ(フェイクニュース対策)がかなりの難題で、この問題に取り組むビジネス上の責任はなく、偏向や検閲だと批判を受けるかもしれない。だったらなぜわざわざそんなことをするだろうか?
●グーグルとフェイスブックの対策
バラットさんの指摘は、グーグルやフェイスブックが、相次いでフェイクニュース対策を打ち出したことを受けたタイミングで公表されたことも、興味深い。
バラットさんの古巣、グーグルはこの投稿の3日前、25日に新たなフェイクニュース対策「プロジェクト・アウル」を公表した。
グーグルはこの中で、「毎日のトラフィックのごく一部(約0.25%)のクエリにおいて、ユーザーが求めていないような攻撃的な内容や明らかに誤解を招く情報が表示されていることが明らかになりました」と述べている。
ただ、グーグルの年間のクエリー数は2兆件以上とも見られている。単純計算でも、0.25%は年間50億件に相当することになる。
グーグルの対策の柱は3つ。
第1はアルゴリズムの変更。「ホロコーストはなかった」などのヘイトコンテンツが検索結果の上位に表示される問題で批判を浴びたことなどを受けての対応だ。
さらに、第2はユーザーによる不適切なコンテンツの通報ツールの提供だ。
特に、検索語候補の自動表示(オートコンプリート)機能で、「ユダヤ人は邪悪」などと人種差別的な表示が行われたり、検索結果のスニペット(抜粋表示)で白人至上主義に絡んだ虚偽情報が掲載されるなどの問題で、批判が相次いだことへの措置だ。
第3は、不適切なコンテンツの削除方針をより明確にするために、ポリシーの判断基準を具体的に書き込んだこと。
また、フェイスブックも27日、フェイクニュースをめぐる情報操作の構造を明らかにした報告書を公表。虚偽アカウントによる情報操作対策に乗り出すことを表明している。
●その反対は恐ろしいことに
バラットさんは、これらの動きを踏まえて、こう述べる。
彼らがこの問題を自らのこととして真剣に捉えるなら――最近の動き(フェイスブックはファクトチェッカーに対価を支払い、グーグルはランキングを修正する、など)はそうであることを伺わせるが――ユーザーもメディアも評価し、支援するようになるだろう。透明性と適切な対応によって、彼らは社会にとって大きな貢献ができ、民主主義が正しく機能するよう後押しできる。その反対は、恐ろしいことになる。
-----------------------------------
■デジタルメディア・リテラシーをまとめたダン・ギルモア著の『あなたがメディア ソーシャル新時代の情報術』(拙訳)全文公開中
(2017年4月29日「新聞紙学的」より転載)