相次ぐAIバイアス騒動、対処には「倫理綱領よりスキャンダル」

2018年は、AIとデータに絡む様々な騒動が相次いで起きた。

2018年は、AIとデータに絡む様々な騒動が相次いで起きた。

そんな中で、AI開発の倫理の必要性が広まり、グーグルなどAI開発の大手も、独自の倫理綱領を掲げるようになった。

だが、ノースカロライナ州立大学の研究では、開発者にとっては倫理綱領だけでは、ほとんど効果が出ない、との結果が出たという。

では、何が必要なのか? 「スキャンダル」なのだという。

●相次いで起きた騒動

2018年に、AIとデータをめぐって、どんな騒動が起きたか。

ニューヨーク大学のAIナウ研究所が、10月に過去1年間のAIとデータに絡んだ騒動をわかりやすくまとめている。

まずは、アマゾンの顔認識AI「レコグニション」をめぐる一連の騒動。2017年11月から顔認識機能を提供しているこのサービスをめぐって、「警察などに監視機能を提供している」として人権団体や、さらには社員からも批判の声が上がる事態となった。

そして、切れ目なくトラブルが続いたフェイスブック。3月に発覚した個人データ8700万人分不正流用のケンブリッジ・アナリティカ問題に続く、4月のマーク・ザッカーバーグCEOの米連邦議会での証言、加えて9月末に発覚した個人データ3000万人分の流出問題。

そして、AIをめぐる倫理問題で目を引いたのが、3月に明らかになったグーグルの米国防総省への技術供与「プロジェクト・メイブン」問題だ。

国防総省のAI化プロジェクト「メイブン」に、グーグルのAI基盤「テンソルフロー」を提供する契約を結んでいたことが明らかになった。これに対し、同社の社是だった「邪悪になるな」に反するとして社内外から大きな議論がわき起こり、4000人を超す反対署名、十数人の退職者を出す事態に至る。

この騒動の結果、グーグルは2019年に切れる国防総省との契約の更新をしないことを決定。さらに、新たに同社の倫理規定としての「AI原則」を発表し、AIの軍事転用には距離を置く姿勢を明らかにした。

またグーグルは、この「AI原則」を受ける形で、総額100億ドルとも言われる国防AIクラウド「JEDI(ジェダイ)」への入札からの撤退も明らかにしていた。

●AI規制求めるマイクロソフト

AI開発の中でも、顔認識技術に関して、以前から規制を求める声をあげているマイクロソフト社長のブラッド・スミス氏は12月6日、改めて「バイアス」「差別」「プライバシー」などの課題を指摘するブログを公開している

スミス氏は、政府に対して法整備を含む規制を求めことに加え、マイクロソフトとしても6項目の倫理規定「顔認識原則」をまとめた、と述べている。

これは、顔認識技術をめぐる課題に取り組むことを示すとしており、掲げているのは「公平性」「透明性」「説明責任」「差別の排除」「通知と同意」「適法な監視」の6項目だ。

AIの課題に取り組むステップとして、倫理規定の策定と公表は、重要だろう。

だが、その効果については、かんばしくない調査結果が明らかにされた。

●「倫理綱領よりスキャンダル」

190カ国、10万人の会員を擁するACMは8月、前回改訂から26年ぶりに、その倫理綱領を改訂した。前回改訂した1992年は、まだインターネットも一般に普及する前だった。

そして、ACM会長のチェリ-・パンケイク氏が「カンバセーション」への寄稿で述べているように、AIをめぐる一連のバイアス問題も、今回の改訂の射程にある。

ソフトウェアはどんどんと、インプットもなしに、あるいは人間の理解も及ばぬ形で、判断を導く分析結果をつくり出すようになっている。例えば銀行のローン審査がそうだ。そのアウトプットは、全く意図せぬ社会的な影響を及ぼし、ある階層の人々すべてに偏見をもたらすことになる。最近の例では、データマイニングによってローン返済不能になる人々の予測をしたところ、長期ローン希望者や、特定地域の居住者に対してのバイアスがあることが明らかになった。「ファルスポジティブ(偽陽性)」の危険もある。コンピューターがつなげるべきでない二つをリンクさせてしまうことだ。最近では、顔認識ソフトが、連邦議会議員を犯罪者の顔写真と取り違えたケースがあった。改訂した綱領では、ある属性の人々すべてを虐げたり、その権利をはく奪したりしてしまう可能性があるシステムをつくりださぬよう、テクノロジストが最新の注意を払うよう推奨している。

具体的には、新たな規定としてこのような文言も加わっている。

年齢、肌の色、障害、民族、家族状況、性自認、組合加盟、軍歴、国籍、人種、宗教や信条、性別、性的指向、その他不適切な要因に基づく偏見による差別は本綱領に明確に違反する。

ノースカロライナ州立大学の研究チームは、105人のキャリア5年以上のソフトウェア開発者と63人のソフトウェア開発を学ぶ大学院生を対象に調査を実施。

半数にはACMの倫理綱領を示し、残る半数には倫理の大切さを口頭のみで簡単に説明。その後、ソフトウェア開発における倫理的な判断を求められる局面を示した11種類のシナリオを見せて、どのように対応するかを3択(倫理違反[A]、わからない、倫理的[B])で尋ねた。

すると、ACMの倫理綱領を示したグループとそうでないグループとで、回答内容に明確な差は見られなかった、という。

ただ、11のシナリオの中には、現実にあった事件ついて述べたものが含まれていて、その一つが2015年に発覚したフォルクスワーゲンによる米国の排ガス規制回避のための不正ソフトウェア組み込み問題(ディーゼルゲート)だった。

調査の後の追加質問で、シナリオの中で思い当たる実際のニュースがあったか尋ねたところ、学生19人とプロ1人がフォルクスワーゲンの不正ソフトウェア問題を挙げた、という。

63人の学生の被験者のうち、自分だったら「回避ソフトをつくる」と回答したのは12人、わからないが4人、「回避ソフトをつくらない」が47人。

フォルクスワーゲンの問題を挙げた19人は、すべて「回避ソフトをつくらない」と回答。「回避ソフトをつくる」と回答した12人は、フォルクスワーゲンのニュースを知らなかったようだ。

これについて、研究チームはこう推察する。

ソフトウェア開発者が倫理的な判断ができるようにする効果的な方法。それは、自らの判断の結果と、ニュースに取り上げられるような類似の判断が引き起こした結果とを、結び付けて考えられるよう提示することではないか。この結果はそんなことを示しているようだ。

倫理綱領の抽象化した文言と、ニュースの見出しや損害金額の多寡で身近なリアリティが喚起される「スキャンダル」とでは、確かにインパクトは全く違うだろう。

そして、「スキャンダル」の事例は事欠かない。ただ「スキャンダル」の関係者たちは、嫌がるだろうが。

--------

(2018年12月8日「新聞紙学的」より転載)

注目記事