フェイスブックの情報選別:〝偏向〟しているのは人間かアルゴリズムか

この騒動が興味深いのは、そもそもアルゴリズムは中立的なのか、人間とアルゴリズム、一体どちらが〝偏向〟しているのか、という疑問を浮き彫りにしたことだ。
|

機械がやっているという触れ込みだったのに、実は中に人間が入っていた―。

フェイスブックが人気の話題をまとめて紹介する「トレンディング・トピックス」というサービスを巡る、〝偏向〟騒動が尾を引いている。

Open Image Modal

これまではアルゴリズムが「中立的に」そのリストを決めている、と説明していたのに、実は人間の編集者チームが採否を判断しており、しかも「意図的に保守派メディアを排除している」とネットメディア「ギズモード」に報じたことをきっかけに、保守派論客や連邦議会も巻き込んで、わき起こった騒動だ。

この騒動は日本でも関心が高く、私も木曜日に、小田嶋隆さんがパーソナリティを務めるTOKYO FMの番組「タイムライン」で、お話をさせていただいた。

この騒動が興味深いのは、「保守メディア排除」という話自体よりも、そもそもアルゴリズムは中立的なのか、人間とアルゴリズム、一体どちらが〝偏向〟しているのか、という疑問を浮き彫りにしたことだ。

人工知能(AI)ブーム花盛りの中で、ではアルゴリズムの透明性をどう確保するのかなど、結構、いろんな論点が見えてくる騒動ではある。

●チェス指し人形とマトリックス

「トレンディング・トピックス」は、英語のみで米国など地域も限定しているようなので、日本ではあまり馴染みはない。ただ、ツイッターなどに同種のサービスはあり、やはりアルゴリズムで表示内容を決めている、という。

今回の騒動は、18世紀の欧州を驚かせた「ターク」というチェス指し人形を思い起こさせる。

トルコ人の風貌の人形「ターク」が、チェスの名人を次々打ち負かしたという〝事件〟だ(※トム・スタンデージ著・服部桂訳『謎のチェス指し人形「ターク」』に詳しい)。

Open Image Modal

グーグルのAI「アルファ碁」がプロ棋士に勝利するという〝事件〟のさきがけとも言える。

だが「ターク」はもちろんAIではなく、中に人間が入って操作していた。アマゾンのクラウドソーシング・サービス「メカニカル・ターク」は、この〝事件〟に由来する。

フェイスブックの「トレンディング・トピックス」も、「ターク」の一種、ということになる。

ただ実態は、もう少しダークな印象だ。

20数人のチームが8時間シフトで携わっていたのは、フェイスブックのアルゴリズムが選んだニュースのリストから、編集者が「トレンディング・トピックス」にふさわしいかどうか判断する、という作業だ。

編集者たちは、自分たちの仕事を、アルゴリズムがより賢くなるようにデータをくわせ続けるお守り役、と受け止めていたようだ。

キアヌ・リーブスさん主演のSF映画「マトリックス」では、世界を支配する巨大コンピューターの動力源として、人間がカプセルの中で培養されていた。

フェイスブックの編集者たちも、そんな〝動力源〟として働いていた、とも言える。

●「ファーガソン事件」の教訓

英ガーディアンの報道によると、フェイスブックがアルゴリズムに加えて、人間の編集者を導入したきっかけは、2014年夏の米ミズーリ州ファーガソンで起きた暴動事件だったという。

米ノースカロライナ大学助教、ゼイネップ・トゥフェッキさんの調査によると、この時、ツイッターには続々と事件を巡るツイートがあふれる一方、フェイスブックのフィードには流れてこなかったという。

フォロー先の投稿がリアルタイムで流れるツイッターと、アルゴリズムによって投稿を絞り込んだ上で表示するフェイスブック。その仕組みの違いが、はっきりと出た事例だった。

これをきっかけに、フェイスブックのフィルタリングが批判を浴び、人間によるニュース判断の必要性を認識したようだ。

●保守派メディアは排除されたか?

今回の騒動の着火点は、米大統領選の年に、フェイスブックが「意図的に保守派メディアを排除していた」という部分だった。

Open Image Modal

だが、発端となった「ギズモード」の記事の中で、それを明確に証言している元編集者は1人だけだ。同じ記事の中で、フェイスブックによる意図的な排除はなかった、と証言している元編集者もいる。

今回の騒動を受けて、ガーディアンがフェイスブックの社内ガイドラインを明らかにした

Open Image Modal

それによると、ニュース採用の基準として、例えばその日のベスト3のニュースを選ぶ場合には、BBCニュース、CNN、FOXニュース、ガーディアン、NBCニュース、ニューヨーク・タイムズ、USAトゥデー、ウォールストリート・ジャーナル、ワシントン・ポスト、ヤフーニュース(ヤフー)の10メディアのうち最低5メディアでトップ扱いになっている、といった、客観的なハードルが示されている。

現場の運用がどうなっていたのか、本当のところはわからない。

ただ、もしこれらが守られているのだとすると、「意図的」なものはあまり読み取れないような印象を受ける。

●アルゴリズムは中立か?

さらに浮かんでくる疑問は、そもそもアルゴリズムは中立的なのか、という点だ。

Open Image Modal

「コロンビア・ジャーナリズム・レビュー」のフェロー、チャバ・ゴウラリーさんが、「私たちの生活を支配しているアルゴリズムを調査する」という記事で指摘しているように、そんなことはない。

アルゴリズムが前提とする仮説、組み込むデータによって、出力される結果には偏りが生じる。

記事の中で、コロンビア大学ジャーナリズムスクールのブラウン研究所長で統計学者でもあるマーク・ハンセンさんのこんなコメントを紹介している。

(アルゴリズムが客観的ということは)あり得ない。それは人間の想像力の産物なのだから。そこには、世界がどのように動いていて、どのように動くべきか、というひとつながりの仮説が埋め込まれているのだ。

さらに、それを意図的に操作することに関して、フェイスブックはいくつかの〝実績〟がある。

2010の米中間選挙では、有権者のユーザー6100万人を対象に、「今日は投票日」という告知を表示。それによって34万人の投票者増加に結びついたという。

また、2012年には、ユーザー約70万人を対象に、アルゴリズムを操作して、ポジティブ、ネガティブな感情がフェイスブックを通じて伝染するかを実験。感情の伝染が確認された、という。

投票実験は「ネイチャー」、感情伝染実験は「米科学アカデミー紀要」という、いずれも権威ある学術誌に論文として掲載されている。

これらはいずれも、ユーザーのあずかり知らぬところでアルゴリズムを操作して実験が行われた、として激しい批判を浴びた。

●メディアとしてのフェイスブック

フェイスブックが、これだけ注目を集めるのは、それが強力なニュース配信の機能、つまりメディアとしての機能を持っているからだ。

フェイスブックは月1回以上利用するアクティブユーザーが、今年3月末で16億5000万人。すでに中国の人口より多い。

ビュー・リサーチ・センターが昨年6月に発表した調査結果では、政治ニュースの情報源としてフェイスブックを挙げたのは「ミレニアル世代」(18~33歳)で61%、「X世代」(34~49歳)で51%といずれもトップ。「ベビーブーマー世代」(50~68歳)では上位をテレビが占めるものの、なお39%となっている。

一方で、プロフィールや、いいねの傾向を分析すると、支持政党は9割近く判定できるという。

特定の支持層にのみ投票呼びかけをすれば、選挙に影響を及ぼすことも、理論的には可能だ。

選挙区割りを自党に有利になるよう改変することを「ゲリマンダー」という。ハーバード大教授のジョナサン・ジットレインさんは、これを「デジタルゲリマンダー」と呼んでいる

●アルゴリズムの透明性

フェイスブックはあくまでプラットフォームであり、アルゴリズムは中立的、との看板を掲げる。

だがすでに見たように、アルゴリズムには偏りが入り込む。まして、編集者が判断を加えるとなると、それは編集作業であり、プラットフォームよりも、さらにメディアの性格を帯びてくる。

メディアには、情報発信に対するより重い責任が問われる。

伝統的なメディアの場合は編集基準倫理綱領を公開していて、読者はその基準と照らし合わせて、きちんと守られているか、外れているかを判断することができる。

フェイスブックの場合は、今回の騒動で、リークという形で編集のガイドラインが明らかになった。

アルゴリズムそのものも、編集作業に類似した機能をもつのならば、やはり透明性は必要だ。

フェイスブックにはユーザーをなるだけつなぎとめ、「いいね」「シェア」などのエンゲージメントをなるだけ深めてもらいたい、というインセンティブが働く。

そして、そのインセンティブは〝偏り(バイアス)〟として、アルゴリズムに埋め込まれている、とノースカロライナ大のツゥフェッキさんは指摘する。

また、アルゴリズムの操作による危険性は、フェイスブックに限ったことではない。

米国行動調査・技術研究所(AIBRT)という独立研究機関、ロバート・エプスタインさんとロナルド・E・ロバートソンさんという2人の研究者は、「高いシェアを持つグーグルは、検索結果を操作することで、意図的に選挙結果を左右する力がある」との研究結果をまとめ、「米科学アカデミー紀要」に論文を発表している。

アルゴリズムを公開するよう、要求し続けることも大切だろう。

ただ、「コロンビア・ジャーナリズム・レビュー」のゴウラリーさんが紹介するように、データジャーナリズムの手法によって、アルゴリズムの出力結果の比較から、その〝偏り〟を検証していくことも可能だ。

ユーザー視点では、何ができるか。新聞なら、1紙だけでなく、2紙、3紙と見比べることで、そのニュース判断の違いが分かってくる。

ソーシャルメディアのアルゴリズム、編集方針に何らかの〝偏り〟があったとしても、フェイスブックとツイッター、さらにはグーグルニュースで流れているニュースの傾向を見比べることで、そこには何らかの違いがある、ということが分かってくる。

まさに、「ファーガソン暴動事件」でツイッターとフェイスブックのフィードに、明確な違いが出たように、だ。

ソーシャルメディアやネット検索サービスのアルゴリズム(プログラム)に依存していくと、ユーザーは自分の好みの情報にばかり接するようになり、視野がどんどん狭まっていく―。

そんな「フィルターバブル」も、アルゴリズムの弊害として指摘されてきた。

ユーザー側が「フィルターバブル」を抜け出し、自分で〝偏り〟を補正していく、ということも必要なのかもしれない。

-----

■ダン・ギルモア著『あなたがメディア ソーシャル新時代の情報術』全文公開中

(2016年5月22日「新聞紙学的」より転載)