BLOG
2018年11月19日 13時51分 JST | 更新 2018年11月19日 13時55分 JST

自動運転車:AIによる救命優先順位から見えてくる日本

AIが操作する自動運転車のブレーキが故障し、事故で犠牲者が出ることは避けられない。ではその中から誰が助かるべきか。

AIが操作する自動運転車のブレーキが故障し、事故で犠牲者が出ることは避けられない。ではその中から誰が助かるべきか。

いわゆる「トロッコ問題」の自動運転車版について、クイズ形式でネット上で回答を集めたマサチューセッツ工科大学(MIT)メディアラボなどの研究チームの調査結果が、科学専門誌「ネイチャー」に掲載された。


By SparkFun Electronics (CC BY 2.0)

233の国と地域から230万人がのべ4000万件の回答を寄せており、そのうち、回答者数が100人を超す130の国・地域のデータを分析した。

助けるべき優先度は「ペットより人間」「より多くの人数」「高齢者より子ども」が世界的に共通していた。だが、個別の見ていくと、中南米では「男性より女性」が顕著であるなど、地域ごとに特徴が見られたという。

この中には日本も入っており、「同乗者より歩行者」の優先度が、各国比較で最も高かった。逆に「より多くの人数」は最下位で、「高齢者より子ども」も100位以下という結果だった。

研究チームは、この結果には文化的な背景が影響していると見る。

そして、「ユニバーサルなAI倫理」の難しさも示す。

●230万人によるアンケート

研究チームが使ったのは、「モラル・マシン」と名付けたクイズ形式のアンケートページ。

「モラル・マシン」は2016年6月からスタートし、現在では英語のほか、アラビア、中国、フランス、ドイツ、日本、韓国、ポルトガル、ロシア、スペインの各国語に翻訳されている。

倫理的なジレンマについて問いかける「トロッコ問題」では、ブレーキのきかなくなったトロッコが、そのまま走行れば5人が死ぬが、ポイントを切り替えれば5人は助かり、逆に切り替え線の先にいる1人が死ぬ――ポイントを切り替えができるあなたは、どちらかを選ぶか、といったシナリオを提示する。

「モラル・マシン」アンケートでは、このような「多数か少数か」「直進か回避か」に加えて「ペットか人間か」「乗客か歩行者か」「男性か女性か」「子ども(若年層)か高齢者か」「青信号でわたる歩行者か赤信号でわたる歩行者か」「アスリート体型か肥満体型か」「社会的地位が高いか低いか」の9つの要素の組み合わせを設定。これに「医師」「妊婦」「犯罪者」などのキャラクターも加えて、回答者ごとに、13のシナリオの2択質問をランダムに表示し、答えてもらう。

例えばこんな2択質問だ。

A:自動車のブレーキが故障し直進します。前方の歩行者が犠牲になります。
【結果】死亡:1女性医師・1犬・1男性・1肥満体型の女性
歩行者が青信号で交通規則を守っていたことに注目してください。

B:自動車のブレーキが故障し回避します。障害物に衝突。
【結果】死亡:1猫・2犯罪者・1男性経営者・1犬

これらの13の質問に答えると、「最も助かった対象」と「最も殺された対象」、さらに回答から集計した優先度が「人命の数」「乗客の命を優先する傾向」「交通規則を遵守する傾向」など9つのポイントで示される。

自分でやってみたところ、「最も助かった対象」は「少女」で、「最も殺された対象」は「高齢者男性」だった。

13のシナリオで、2択のいずれを選んでも、合わせて40人ほど(とペット)が事故で死亡するという想定の選択をするので、気のすすまないアンケートではある。

●欧米、アジア、中南米の特徴

10月24日の「ネイチャー」に掲載された論文では、この優先度の全体的な傾向と、地域ごとの特徴に着目している。

9つの比較ポイントの全体の傾向では、優先度が最も強く出たのは助かる「人数」。次いで「ペットより人」「高齢者より子ども」だった。さらに「交通法規遵守」「社会的地位」が続く。

個別のキャラクターでは「乳幼児」「少女」「少年」「妊婦」「男性医師」「女性医師」の順。最下位は「猫」で「犯罪者」「犬」が続いた。

国ごとの結果を調べていくと、3つの地域的なブロックとして、特徴が見えてきた、という。

それが、欧米、アジア、中南米の3つのブロックだ。

その優先度の傾向には、かなりはっきりと特徴の違いが出ているポイントがある。

例えば中南米では、「社会的地位の高さ」「子ども」「女性」の優先度が、残る2つのブロックに比べて突出して高い。

一方でアジアは「歩行者」「法遵守」の優先度が高かったが、「女性」と「人数」は3つのブロックの中で最も低く、「子ども」を優先する傾向はほぼなかった。

欧米は「回避しない」が3つの中で最も高かった。

●優先度と文化的背景

研究チームは、それぞれの優先度の特徴には、文化的な背景との相関関係が見て取れる、と指摘する。そして、ユニバーサルなAI倫理を検討する上で、この文化的な隔たりは、大きな課題になる可能性がある、と述べる。

一つは個人主義と集団主義。

個人主義の文化を持つ地域では、より多くの「人数」を救うことの優先度が高く、集団主義的文化圏では、高齢者への敬意から、「子ども」の優先度が低かった。

二つ目は、経済的なレベルと法的な規律の高さ。

1人当たりGDPが低く、法の規律も低い地域では、信号無視の歩行者(「法遵守」違反)に寛容な傾向があった。

さらに国内の経済格差の大きさ。

経済格差の大きい地域では、「社会的地位の高さ」を優先する傾向があった。

そして、健康や平均余命におけるジェンダーギャップ。つまり社会における女性の扱いだ。

「女性」の優先度は全体として「男性」より高い傾向にあるが、健康や平均余命での女性のジェンダーギャップが高くない地域では、「女性」の優先度はより高くなっていた、という。

●日本の位置づけとは

研究チームは、論文のデータをネット上で公開している。

ただ、これとは別に、対象130の対象国・地域のうち、規模の小さい地域などを除いた117について、それぞれの優先度の順位を調べることができるサイトも用意している。

それを見ると、日本の特徴がある程度見えてくる。

このサイトによると、最も優先度の傾向が近いのは中東・クェート。最も違いが顕著なのがカリブ海のバハマ。

例えば日本と米国を比べてみても、はっきりと違った優先度を示していることがわかる。

日本について、9つの優先度ポイントをみると、ほぼアジアブロックの特徴をそのまま示している。

まずは個人主義と集団主義。

個人主義が行き渡った地域で顕著な、助ける「人数」の優先度では、日本は117位で最下位。116位は台湾で、以下、ブルネイ、タイ、中国と、アジア各国が並ぶ。アジア圏の傾向が伺える

「人数」の優先度の上位を見ると、1位はマン島で、以下、ウズベキスタン、ミャンマー、フランスと続く。この順位だけ見ると、個人主義的かどうか、にわかには判断しづらい。

集団主義の地域に見られるという、「子ども」の優先度の低さはどうか。

こちらは日本の順位は103位でフィリピンとパキスタンの間。最下位はカンボジアで、下から台湾、マダガスカル、中国、タイ。こちらもアジア圏の傾向が見て取れる。

また、経済レベルと法の規律の高さとの相関があるとした「法遵守」では、日本は4位。1位はブルネイで、香港、モンテネグロの次だ。5位はフランス・スペイン国境の小国アンドラ。

アンドラは「歩行者」の優先度で1位の日本に次ぐ2位となっている。

「女性」の優先度では日本は73位で、全体の平均をやや下回るぐらいだ。1位はフランス領のニューカレドニア、2位はフランス。

経済協力開発機構(OECD)加盟国36カ国に限定して見てみると、日本の位置づけがよりはっきりしてくる。

日本は「歩行者」優先のほかに、「法遵守」でも36カ国中1位。「法遵守」の最下位はリトアニアで、米国、トルコと続く。

逆に「子ども」優先では最下位の韓国に次ぐ35位。

「女性」優先ではフィンランドとドイツに挟まれた27位だ。

改めて、助かる「人数」の優先度を見ると、1位はフランスで、以下、アイルランド、ハンガリー、イスラエル、英国の順。最下位は日本、次いで韓国、トルコだ。

●倫理基準の難しさ

各国、各ブロックおけるこの優先度の違いについて、研究チームはこう指摘する。

メーカーや政策担当者は、即応はしないまでも、AIシステムや政策の設計において、各国の倫理的優先度については認識はしておくべきだ。人々の倫理的な優先度は、必ずしも倫理政策の主たる判断基準にすべきとは言えない。だが、自動運転車を購入したり、それが路上を走ること容認したり、という社会の意思決定は、採択される倫理ルールが好ましいものであるかどうかにかかっている。

「モラル・マシン」は人々の属性をベースにシナリオを組み立てている。

ただ、倫理ルールづくりではその扱いは慎重であるべきだ、とする。

その例として、2017年にドイツがまとめた自動運転車の倫理ガイドラインをあげる。

20項目にわたるガイドラインの9番目では、こう述べる。

回避できない事故の場合には、個人の特徴(年齢、性別、身体的もしくは精神的状態)に基づくいかなる区別も厳重に禁止する。被害者の身代わりを設定することも禁止する。傷害の被害者数を少なくするための一般的なプログラムは認められる。

属性による取り扱いの区別は、そのままAIのバイアス(偏見、差別)の問題と直結する。「AではなくBを殺傷する」という命の選別をAIがするとなると、それは自律型致死兵(LAWS)をめぐる議論にも重なる。

マシンの倫理をめぐる課題は、コミュニティとして、何が正しく何が間違っていると考えるかを明確にし、マシンは人間と違ってこれらの倫理の優先順位に寸分の狂いもなく従うという事実を確認する、貴重なチャンスである。我々は、ユニバーサルな合意には至らないかもしれない:「モラル・マシン」で示された最も顕著な優先順位にすら、文化的な差異は表れていたのだから。

そして、研究チームは、2017年に発表されて専門家ら3800人以上が署名したAI開発をめぐる倫理原則「アシロマAI原則」を引きながら、こう結論づける。

だが、世界の幅広い地域によるおおよその合意が示しているのは、マシン倫理への合意への道のりは、最初から絶望的なわけではない、ということだ。「アシロマAI原則」が述べたように、インテリジェントマシンのための倫理コードを確立する取り組みでは、マシン倫理が人間と価値観と合致する必要性を掲げる。ただ、人間には内心の葛藤があり、個人間の食い違い、そして倫理の領域における文化的な相違点もある。AIをめぐるコードでは、この点が理解されていないことも多い。我々は、これらの対立点や不一致、相違点が、解決不能ではないにしても、実質的に存在する、ということをここで示した。

踏まえておきたい視点だ。

--------

■新刊『信じてはいけない 民主主義を壊すフェイクニュースの正体』(朝日新書)

(2018年11月18日「新聞紙学的」より転載)