ホワイトハウスがAIの透明性を求める

AIが急速に進化し、社会に浸透する一方で、ブラックボックス化したそのアルゴリズムの透明性をどう担保するのか。

ホワイトハウスが12日、人工知能(AI)の社会的な影響と制度設計についての、初めての報告書「人工知能の未来に備える」を公表した。

58ページの報告書はホワイトハウスの国家科学技術委員会(NSTC)と科学技術政策局(OSTP)が中心となってまとめたもので、扱っている範囲も、AIによる影響と制度設計について、研究開発から経済・雇用、安全や公平性、さらに安全保障まで幅広くカバーしている。

そして報告書で目を引くのは、そのすべての論点にかかわるAIの「透明性」に確保だ。AIのシステムは「制御可能、そしてオープンで透明性があり理解可能であること」。

報告書はそう結論づける。

だが現実には、社会に浸透し始めているAIの「透明性」が担保されず、"差別的"な振る舞いをする実例がいくつも表面化している。

相前後して、マサチューセッツ工科大学(MIT)メディアラボ所長の伊藤穣一さんも、「ワイアード」に掲載されたバラク・オバマ大統領との対談の中で、同じ懸念を指摘している。「AIがどのように振る舞うかを、すべての人たちが理解することが重要だ」と。

AIの「透明性」についてはすでに、G7のテーブルにも上がっている。今年4月、G7香川・高松情報通信大臣会合で日本から提案された「AIの研究開発の原則の策定」のたたき台8原則で、第1項目として示されていたのが「透明性の原則」だ。

ホワイトハウスの報告書を受けて、マイクロソフトリサーチ主席研究員のケイト・クロフォードさんとワシントン大学助教のライアン・キャロさんは、AI研究の"死角"、すなわち「この技術が社会、文化、政治状況に与える影響」を評価する必要がある、と科学誌「ネイチャー」で訴えている

AIが急速に進化し、社会に浸透する一方で、ブラックボックス化したそのアルゴリズムの透明性をどう担保するのか。

かねてから指摘されてきたこの問題が、改めてクローズアップされている。

●AIの未来に備える

AIと機械学習について、大きな期待が持たれているのが、世界が直面する最大級の課題や非効率性の解決に資することで、人々の暮らしをよりよくする可能性だ。

ホワイトハウスの報告書は、教育から経済、防衛、環境、刑事司法にいたるまで、AIの可能性と課題を幅広く網羅。具体的に、23項目に及ぶ提言をまとめている。

短期的な問題としては、特定職種の失業など、AIによる代替が雇用に与える影響を重視。年内に追加報告書を出す、としている。

また、規制のあり方についても、関心の集まる自動運転車やドローンを例に挙げ、運輸省に対して、まずは業界や研究者と、安全性などについての情報共有を密にし、現行規制の見直しを含めて検討するよう指示している。

その中でも目を引くのは、「公平性、安全性そして制御」と題した、AIの透明性についての項目だ。

●AIの偏見

AIのテクノロジーが幅広く採用されていくことで、テクノロジー専門家や政策アナリストから、予期せぬ影響がもたらされる可能性について、懸念の声が上がってきた。人々について決定を下す場合、人間や組織の判断に代えて、AIの判断を用いることについては、公正、公平、説明責任をどう担保すべきかという課題に直面する。これはすでに、"ビッグデータ"の活用においても、持ち上がった課題だ。

つまり、AIが下す判断に"偏見"はないか、説明責任は果たせるか、それをどうやって確かめるのか、という問題だ。

そこで報告書が紹介しているのが、調査報道メディア「プロパブリカ」が取り上げた、「再犯予測」プログラム「COMPAS」の事例だ。

「COMPAS」はAIを使い、被告の再犯可能性を評価点として算出するプログラムで、刑事裁判の判決や仮釈放の判断資料としてウィスコンシン州など多くの州で採用されている。

「COMPAS」を提供するノースポイント社は、その再犯予測の精度を68~70%とうたっている。

プロパブリカが独自に検証したところ、再犯予測全般の正確さでは、白人59%、黒人63%とさほどの違いはなかった。ただ細かく見ていくと、白人と黒人で、いくつかの大きな違いが見られたという。

例えば、「再犯予測」後、実際には2年間、再犯のなかった人物が、高い危険度評価を受けていた割合は、黒人が45%に対して、白人は23%と、2倍近い違いがあった。

逆に、「再犯予測」後、2年以内に再犯があった人物が、低い危険度評価を受けていた割合は、白人が48%と高く、黒人は28%と、こちらも2倍近い違いがあった、という。

さらに報告書は、SF映画『マイノリティ・リポート』を思わせる、AIを使った犯罪予測システムが、実際には思うような効果を上げていない、とするデジタル人権グループ「アップターン」の指摘なども紹介している。

それによると、シカゴ市警が導入している「戦略的対象者リスト(SSL)」は、AIを使って、銃撃の被疑者・被害者となる可能性の高い人物をリスト化し、将来的な事件発生に備えている。

だが、目立った発生件数の減少は見られず、むしろリスト対象者への差別を助長している、という。

●見えないAIの振る舞い

これらの"AIの偏見"は、AIに学習させている過去の犯罪摘発データが、人種(特に黒人)などに偏りがあることも原因として指摘されてきた。

そして、同様の懸念は、企業の採用やローン審査など多くの場面で想定される。

そして、透明性を担保しようにも、AIの機械学習の仕組みが複雑すぎて、人間がそれを検証するのは難しい、とも報告書は述べている。

機械学習の結果を理解することは難しい。だが一方で、一般的には、複雑なアルゴリズムは常に設計者の意図したように動くものだと誤解もされている。つまり設計者に偏見があるから(本人が気付いているかどうかにかかわらず)アルゴリズムに偏見が紛れ込むのだ、と。

偏見のある開発者が、偏見のあるアリゴリズムを作ることができるのはその通りだし、自分の偏見に気付かない開発者が、アルゴリズムから偏見をしっかりと排除できていない可能性があるのも、その通りだ。

だが実際には、偏見のない開発者が、誠心誠意作り上げたシステムにも、思わぬ偏見が入り込むことがある。なぜなら、AIシステムの開発者であっても、意図せぬ結果を排除するだけの十分な理解ができていないこともあるのだから。

一例として挙げられているのが、昨夏、グーグルの写真自動認識サービスで、黒人に"ゴリラ"とタグ付けしてしまった問題だ。

では、AIの公平性や透明性を担保するには、どうしたらいいのか。

カーネギーメロン大学のコンピューターサイエンス学部長、アンドリュー・ムーアさんは、意図せぬ出力結果を最小化する最も効果的な方法は、広範なテストを繰り返すことだ、と述べている。考えうる限りの誤った判定結果のリストをつくり、テストで一つひとつ排除していくのだ、と。

アルゴリズムの出力結果から、判断の誤りや偏見をチェックしていくという試みは、ジャーナリズムの調査報道の手法としても注目されている。

フェイスブックのアルゴリズム解析などにも取り組むプロパブリカに加えて、すでにウォールストリート・ジャーナルコロンビア・ジャーナリズム・レビューなども手がけている。

●伊藤穣一さんとオバマ大統領の対話

「ワイアード」11月号は、オバマ大統領が編集長を務めた特別編集号だ。

この中に、MITメディアラボの伊藤穣一さんとオバマ大統領による、AIをテーマにした対談「バラク・オバマ、ニューラルネット、自動運転車、そして世界の未来」が掲載されている。

対談では、伊藤さんと大統領とのこんな対話がある。

オバマ大統領:我々はすでに、医療や交通機関から電力供給まで、生活のあらゆる場面で専用AIを目にしている。そして経済は、はるかに生産性が高く効率的なものになるだろう。うまく活用すれば、計り知れない繁栄とチャンスをもたらす。しかし、AIには影の部分もある。雇用の減少が起きないような解決策を検討していく必要もある。不平等を拡大する可能性もあるし、賃金を引き下げるかもしれない。

伊藤氏:これを聞いて困惑するMITの学生がいるかもしれないが、私が懸念しているのは、AIまわりのコンピューターサイエンスの中心を担っているのが、主に男性で、その大半が白人だということ。しかも彼らは人間と話すより、コンピューターに話しかける方が居心地がよいという人種だ。彼らの多くが、もしSFのような汎用AIを作れさえすれば、政治や社会といった面倒ごとにわずらわされずにすむ、と考えている。それらはすべて、機械が代わりにやってくれると。

オバマ大統領:なるほど。

伊藤氏:しかし、彼らは問題を矮小化している。私は今年、AIがコンピューターサイエンスの枠にとどまらなくなった年だと感じている。AIはどのように振る舞うのか、それが重要な問題だということを、すべての人々が理解する必要がある。メディアラボでは、私たちは(AIが人間の知能を拡張する)"拡張知能"という言葉を使っている。なぜなら、AIの中にいかにして社会的な価値を組み込むか、問題はその点だからだ。

ここでも、AIの振る舞いの透明性が、議論のポイントになっている。そして、AIに社会的価値を組み込む、ということは、偏見の排除とも、表裏一体の関係にある。

そして、そのためには、開発者の多様性が必要になる、と伊藤さんは指摘している。

ちなみに、AIの知能が人類全体の知能を超えるという「シンギュラリティ(技術的特異点)」、そこにつながる汎用AI(AGI)については、オバマ大統領はこう述べている。

ワイアードの多くの読者にとってはおなじみだろうが、汎用AIと専用AIには違いがある。SFで語られるのは汎用AI、だね? コンピュータが我々より賢くなっていき、ついには人間は不要だと結論を出す。そして人間が満足して過ごせるよう薬漬けにするか、「マトリックス」の世界が訪れるか。私の科学顧問たちと話した感じでは、そこまでにはまだ、かなりの道のりがあるようだ。

ホワイトハウスの報告書も、同様に慎重だ。

機械が人間に比肩する、あるいはそれを上回る知能を示すようなことは、今後20年の間には実現しないだろう。だが、機械が人間の能力に到達し、それを上回るということは、ますます多くの分野で起きてくる。

●G7での提案

今年4月末に香川県高松市で開かれたG7情報通信大臣会合で、高市早苗・総務大臣は、「AIの研究開発の原則の策定」と題する提案を行っている。

これは総務省の有識者会議「AIネットワーク化検討会議」(座長・須藤修東京大学教授)が、4月半ばに公開した中間報告書に盛り込んでいたものだ。

提案として出されたのは、「透明性」「利用者支援」「制御可能性」「セキュリティ確保」「安全確保」「プライバシー保護」「倫理」「アカウンタビリティ」の8原則。

そのトップに掲げた「透明性の原則」は、「AIネットワークシステムの動作の説明可能性及び検証可能性を確保すること」としている。

提案は米国を含む各国から賛同が得られたようだ。

AIの透明性は、各国共通の課題ということになる。

●AI研究の死角

ホワイトハウスの報告書発表の翌日、「AI研究には死角がある」と題した記事を「ネイチャー」に掲載したのは、機械学習やAI倫理に詳しいマイクロソフトリサーチの主席研究員、ケイト・クロフォードさんと、ロボット法の専門家、ワシントン大学助教のライアン・キャロさんだ。

論点の1つは、やはりブラックボックス化したAIのアルゴリズムと、それによる偏見や不平等の排除だ。

対策としてまず2人が挙げるのは、3つの方法。

1つ目は「展開と順守(ディプロイ・アンド・コンプライ)」。グーグルの"ゴリラ"タグ問題のように、サービス展開後、外部からの指摘に対応して、不具合を修正していくという施策だ。

2つ目は「価値のデザイン化(バリュー・イン・デザイン)」。AIのデザイン段階で、社会的価値を埋め込んでいく、という伊藤さんが指摘している方向性だ。

3つ目は「思考実験」。「5人を助けるために、トロッコの線路を切り替えて1人を犠牲にできるか」といった「トロッコ問題」をベースに、様々な想定シナリオから、AIに不具合が生じた場合の責任問題を検証する―そうしたケーススタディの作業だ。

これらに加えて、2人が提唱するのが、4つ目の方法「社会システム分析」だ。

AIが社会に与える影響を、コンセプト、デザイン、展開、規制、とすべての段階で分析していく、というアプローチだ。

その例として挙げているのが、ホワイトハウスの報告書でも触れているAIによる犯罪予測システム。シカゴ市警の「戦略対象者リスト」の例のように、設計と実装のちぐはぐさなどを、検証していくべきだとしている。

社会システム分析では、AIの機械学習のもととなるデータの社会的、政治的な歴史背景を検証するほか、哲学、法学、心理学、人類学、そして科学とテクノロジーの研究を踏まえる必要がある、と指摘する。

AIはテクノロジーの変化に加えて、文化の変化をもたらす。これはかつて印刷技術や鉄道が導入された時のようなテクノロジーの転換点と言える。自動化システムは職場や街角、学校を変えていく。これらの変化が、日々の生活の構造にさらに組み込まれる前に、メリットをもたらすものにしていく必要がある。

●先頭集団も動く

不透明なアルゴリズムと社会的影響の大きさという点では、フェイスブックの動向に注目が集まっている。

そのフェイスブックを含むAIの先頭集団、アマゾン、グーグル/ディープマインド、IBM、マイクロソフトが9月末にプロジェクト「AIパートナーシップ」旗揚げ。開発側からも、この課題に取り組む姿勢を見せる。

ホワイトハウスの報告書は、結論部分でこう述べている。

AIのテクノロジーが進展するのに合わせて、その実務者たちは、AI搭載のシステムが制御可能であること、それらがオープンで、透明性があり、理解可能であること、人間と効率的に協働できること、そしてその運用が人間の価値、期待と一致するものであること、を保証する必要がある。

-----------------------------------

■ダン・ギルモア著『あなたがメディア ソーシャル新時代の情報術』全文公開中

(2016年10月14日「新聞紙学的」より転載)

注目記事