その被告が、将来、犯罪を犯す危険性を、データに基づいてプログラムで自動判定し、評価点を出す。そして、それをもとに、裁判官が判決を言い渡す。
スピルバーグ監督のSF映画『マイノリティ・リポート』をも思い起こさせる、そんな「再犯予測プログラム」の裁判での利用を巡り、ウィスコンシン州最高裁が7月に「利用は限定的であるべき」との判断を示した。

By Richard Hurd (CC BY 2.0)
このプログラムは、アルゴリズムが非公開な上、判定に偏りがあり、不正確だ―。
発砲事件に絡んで有罪判決を受けた被告が、そう主張し、控訴していた裁判だ。
すでにこのような「再犯予測プログラム」や「犯罪発生予想プログラム」は、米国では着実に広がりつつある。だが、それがどのようなアルゴリズムで判断を出しているのか、その精度はどれほどのものなのかは、ブラックボックスのままだ。
人工知能(AI)、アルゴリズムが自動判定する場面が増え続けることで、"なぜそうなっているのか"が分からぬままの結論が溢れ、居心地の悪さが広がっていく。
●未明に起きた発砲事件
事件が起きたのは2013年2月11日の午前2時17分。ウィスコンシン州西部の街、ラクロスで、住宅に向け、車両から2発の銃弾が撃ち込まれ、間もなく、2人の容疑者が逮捕される。

このうち、運転手役だったとされるのが、男性被告34歳。盗難車両の運転や逃亡などの罪で、一審で6年の有罪判決を受ける。
判決を不服として、被告は控訴。その中で、判決に用いられた「再犯予測プログラム」には、欠陥があり、法の適正手続き(デュープロセス)を受けるべき被告の権利を侵害している、と主張していた。
そして控訴審は、「再犯予測プログラム」の判決への導入についての可否の判断を、州最高裁に委ねたようだ。
●「再犯予測プログラム」

「COMPAS」とは、被告に137問の質問に答えさせ、過去の犯罪データとの照合により、再び犯罪を犯す危険性を10段階の点数として割り出すシステム。
この質問には、犯罪、保釈の履歴や年齢、雇用状況、暮らしぶり、教育レベル、地域とのつながり、薬物使用、信条、さらには家族の犯罪歴、薬物使用歴なども含まれるようだ。
今回の男性被告の場合、過去に性的暴行の前科があり、性犯罪者データベースに登録されている人物だったという。
このため、「COMPAS」による再犯危険度の点数も高かったようだ。
「COMPAS」は州政府の矯正局が使用し、そのデータが裁判官に提供されているのだという。
●「犯罪予測」利用の条件
州最高裁が判決を出したのは、7月16日。
判決は、「COMPAS」の危険性評価を判決で使うことについては、被告が適正手続きを受ける権利を侵害してはいない、とした。
ただし、「判決を、このプログラムに依存することまで認めるわけではない」と指摘。プログラムの使用には、前提条件が必要になる、と判断を示した。

まず、「再犯予測」のデータを裁判官に提供する場合には、予測プログラムが非公開のアルゴリズムによること、データにはバイアス(偏り)があり、白人よりも黒人に高い危険性評価が出ることなどの注意書きを明記するように、と指摘。
さらに、量刑の軽重、実刑か猶予かを、このプログラムのみに依拠して判断すべきでない、とした。
危険性評価のツールを、量刑の長さや軽重を判断するために使うことは、不適切である。
再犯予測プログラムをめぐっては、2010年にもインディアナ州最高裁が「量刑判断に取って代わるものではなく、その参考データとして使用すること」を認める判決を出しているという。
今回のウィスコンシン州最高裁の判断も、その流れの中にあるようだ。
●「再犯予測」の精度とは?
ウィスコンシン州では、「COMPAS」は今回のような判決の場面だけでなく、仮釈放の判断など、犯罪者矯正の幅広い場面で使われているようだ。

調査報道メディアの「プロパブリカ」によると、このような「再犯予測」プログラムは、このほかにも、アリゾナ、コロラド、デラウェア、ケンタッキー、ルイジアナ、オクラホマ、ヴァージニア、ワシントンの各州で、刑事裁判の判決に導入されているという。
ただ、問題となるのは、今回の判決でも指摘しているように、そのアルゴリズムが非公開のため、予測機能の正確さについて、外部からは検証のしようがない、という点だ。
「COMPAS」を提供するノースポイント社は、その再犯予測の精度を68~70%とうたっているようだ。
だがプロパブリカが独自に検証した、また別の数字もある。それによると、白人よりも黒人の再犯危険度が高く示される傾向があった、という。
●メディアが検証する
プロパブリカは、「COMPAS」を導入しているフロリダ州の情報公開法を使って、同州ブロワード郡で2013~2014年に「再犯予測」の評価を受けた1万人を超すデータを請求し、独自に検証した。

フロリダは「COMPAS」の予測を、判決ではなく、主に公判前の保釈の判断に使っているという。
プロパブリカに検証によると、「COMPAS」の再犯予測全般の正確さでは、白人59%、黒人63%とさほどの違いはなかったという。
だが、細かく見ていくと、黒人の方がより危険度が高く出る傾向が顕著だった、という。
例えば、「再犯予測」後、実際には2年間、再犯のなかった人物が、高い危険度評価を受けていた割合は、黒人が45%に対して、白人は23%と、2倍近い違いがあった。
逆に、「再犯予測」後、2年以内に再犯があった人物が、低い危険度評価を受けていた割合は、白人が48%と高く、黒人は28%と、こちらも2倍近い違いがあった、という。
ただ、ノースポイントは、プロパブリカの検証に対し、異議を申し立て、さらにプロパブリカが反論するという、応酬が続いているようだ。
犯罪に関するシステムとしては、このほかにも「プレッドポル」がよく知られている。
過去の犯罪発生データの解析によって、犯罪発生率の高い地域を予測し、パトロールの効率的人員配置を行うというものだ。
こちらも、犯罪発生予測の高い地域での、住民に対する過度の職務質問など差別的な扱いが指摘されている。
殺人事件の予知システムによって、その発生率をゼロにするという『マイノリティ・リポート』の世界は、すでに少しずつ現実のものとなってきている。
●アルゴリズムの適正手続き
プロパブリカでこの検証に携わったジュリア・アングウィンさんは、ニューヨーク・タイムズに寄稿したコラムで、信用情報を本人が確認できる権利を保障した「公正信用取引法(Fair Credit Reporting Act)」のような、アルゴリズムの透明性を担保する適正手続きが必要だ、と訴える。
アングウィンさんは、欧州連合(EU)が今年4月に採択した個人情報保護の新たな枠組み「一般個人データ保護規則(GDPR)」にも、限定的ではあるが、クレジット申請や採用申請などの、コンピューターによる自動処理システムについて、適正手続きの義務化を盛り込んでいる点なども、指摘している。
ホワイトハウスも5月、「ビッグデータ:アルゴリズムシステム、可能性、公民権に関する報告書」を公開。この中で、「アルゴリズムの監査」の必要性を指摘している。
アルゴリズムの監査についての学術研究、産業界における開発、さらにビッグデータシステムに対する外部による検査を推進し、人々の公平な扱いを担保すること。
アルゴリズムに透明性が必要であることは、これまでにも紹介してきた。その必要性は、今後、さらに加速度的に増していくのだろう。
-----------------------------------
■ダン・ギルモア著『あなたがメディア ソーシャル新時代の情報術』全文公開中
(2016年8月6日「新聞紙学的」より転載)