AIのような先端技術は『倫理』で抑制できるのか?

あらためて、技術/テクノロジーの長足の進歩に比べて、倫理や思想等があまりに進歩していないことに愕然としてしまう。

■皆が口にする『倫理』

昨今の科学技術の進歩は人間の想像をはるかに超えたペースで進行しており、突然、技術の成果が、人間の健康や生命、さらには人類の生存すら脅かすような存在として、立ち現れるようなことが現実の問題になってきている。

その危機感の現れといってよいと思うが、何らかの歯止めとしての『倫理』という用語が最近頓に人口を膾炙するようになってきた。

■変わる文脈

もっとも、このような問題は、実は昨日今日始まったものではない。核兵器などまさに人類を滅ぼす恐れのある存在そのものだし、脳死の問題が取り沙汰された時にも、まさに『倫理』の問題を巡って大騒ぎになった。

だが、昨今ではこの『倫理』が持ち出される文脈が変わってきている印象がある。というのも、核兵器の場合、その普及や拡散を抑止するのは、少なくともこれまでは、国家の法律や政治判断であり、同盟や条約等の国家間の取り決めのほうだった。

ここでは倫理や思想は現実的な歯止めにはならない。あるいは『脳死』の方も、法律が歯止めになっている。前提として、倫理は当然議論の対象となったが、あくまでプロセスで登場しただけで、実際には判断基準としての法律制定を待つことになった。

では、最近の問題は何がどう違うのだろう。

それは、人の生命を奪い、人類の生存奪をさえ脅かす可能性のある新技術(ないし技術が生むプロダクト)を抑止するためには『倫理』に頼らざるを得ない、あるいは『倫理』しか頼るものが無い、という局面が多発することにある。

例えばその典型例は、人工知能(AI)だろう。現在のところはまだほとんどは『潜在的問題』だが、指数関数的な進化という特性を前提とすれば、ある日突然、人類の生存を脅かすようなAIが誕生する可能性は否定できない。

しかも、核兵器のような莫大な資本が必要な技術と違って、誰でもとまでは言わないにせよ、個人単位で出来てしまう裾野の広さがあり、中国のどこか、インドのどこか、あるいはイスラエルのどこかで突如そのような人工知能が完成するとしても、不思議はない。

また、昨今ではそれ以上に恐ろしいのは、クリスパー*1のような遺伝子編集技術だ。ほとんど投資らしい投資も必要ではなく、大学院生レベルの知識があれば、人間と豚のキメラをつくったり、この世に存在しない危険な細菌を作ったりすることもできてしまう可能性がある。

これほど重要な問題であれば、最終的には、法律を整備し、国家間の条約等の合意によって律することになるのは間違いないが、条約に調印しない国は野放しになるし、そもそも個人単位でできてしまうとすると、その気になればいくらでも規制の網をくぐり抜けてしまうだろう。

となると、倫理、哲学、思想、宗教等に頼るしかなくなる、というわけけだ。

■進歩していない倫理や思想

だが、少し考えてみれば誰でもわかることだが、人類の生存に関わるような世界的な問題について、律することができるような、統一的な倫理や思想、宗教などどこにあるのか。あらためて、技術/テクノロジーの長足の進歩に比べて、倫理や思想等があまりに進歩していないことに愕然としてしまう。

ケンブリッジ大学内に2016年10月17日に設立された「Leverhulme Centre for the Future of Intelligence」の常任理事を務めているスティーブン・ケイブは次のように述べる。

------

「少なくともソクラテスの時代から、人類は倫理哲学や、善と悪を言葉でどう説明するかについては頭を悩ませています」とスティーヴン・ケイヴは悲しげに言う。「現代になって急にこの問題を人工知能(AI)システムにプログラムする必要が出てきましたが、残念なことに、そうした問題に関して人類ほほとんど進歩していないのです」

------

こんな有様だから、機械学習のプログラマーはAIに何をプログラムすればよいか戸惑い、倫理哲学者に聞いても、『まだあまり解明できていない問題』というような曖昧な反応が返ってくる。何百年も取り組んできて未だに答えが出ない問題に、すぐに答えを出さないといけなくなってしまったとケイブは嘆く。

■切迫している

『すぐに答えを出さないといけない』というが本当のところどれくらい『すぐ』なのか。どうやら、まさに、『直ちに』『今この瞬間』というくらい差し迫っているようだ。これを示唆するショッキングな事例がある。

昨年3月、米マイクロソフト社がインターネット上で行ったAI『Tay(テイ)』の実験は、わずか1日で中止となった。AIが差別的発言を忠実に学習して、『ヒトラーは間違っていない』といった不適切な発言をしたからだ。

これは、まさにこのようなことが今後起こる可能性があると恐れていた関係者の心胆を寒からしめた。AIが大量の情報をベースに学習するのはよいが、一体何を学習するのか。

■偽情報だらけの現代社会

そもそも現代社会の大量な情報から学習すれば、AIに本来求められるような、倫理/哲学や善悪の概念が身につくのかといえば、誰もそんなことが期待できないことはすぐにわかるだろう。しかも、昨年来話題になったように、今、インターネット上は偽情報だらけだ。『ポスト真実』*2が現実なのだ。

日本でも、昨年末、医学的に根拠のない誤った内容や、他のサイトからの無断引用記事が多いとして、強い批判を受けて閉鎖された、DeNAが運営する健康情報サイト『WELQ(ウェルク)』の事件は記憶に新しいが、困ったことにこれは氷山の一角で、偽情報満載のサイトなどまだいくらでもある。

しかも、大手マスコミも当てにはならない。朝日新聞の珊瑚捏造事件、慰安婦報道問題等も著名な例だが、最近では原発事故後の偏向報道など記憶に新しい。

そもそも原発事故後の報道への不信感から、人々は大手メディアを信頼できなくなり、ネットニュースのほうにこそ本音や暴露等の真実を見つけることができると考えるようになったのではなかったか。

■『モラルジレンマ』に対する新たな取り組み

このような難題が場合によっては技術進化を阻む可能性があるとの認識は、昨今では開発者の側にも共有され、強く意識されるようになってきている。例えば、自動運転のAIに関して、下記のような取り組みは、その危機感の現れとも言えるが、まだ始まったばかりとはいえ興味深い。

自動運転車のブレーキが利かなくなった状況で、直進すれば5人の歩行者を弾き、右にハンドルを切れば1人の歩行者をひくだけですむ。左にハンドルを切れば、壁に激突して、自分と同乗している自分の家族が死ぬ。さあ、どうするか。

このような状況を『モラルジレンマ』というが、AIにどのような判断をさせるべくプログラムするのがよいかというのは、困難な判断を強いられる難問だ。

------

MITメディアラボのイヤッド・ラーワン准教授らは、自動運転におけるAIの『モラルジレンマ』問題に対する人間の回答を大量に収集して分析するための仕組みを作り、一般公開する取り組みを始めている。

------

AIに妥当な判断をさせるためには、特に、人の生死に関わる判断は、一般情報からの機械学習に期待することはできないし、昨今の状況を勘案しても、好ましいともいえない。だから、人間が判断してプログラムするしかないのだが、その人間の側にも適切な情報が不足している。

今回の取り組みは、残念ながら、特定のシチュエーションを設定して、それに対するアンケートを収集して、集計する程度のものに見えるが、それにしたところで、そんな情報は今までほとんどなかったわけだから、貴重な第一歩であることは確かだ。

ただ、それなりの成果を得るにはまだかなり時間がかかりそうだ。

人間の判断はしばし、特定の環境や周囲の情報、その時の感情等に影響されがちであることはわかっているから、アンケートで得た情報は非常に慎重に、前提条件付きで利用しなければ判断を誤るだろう。人種、地域、宗教等判断にバイアスをかける条件は沢山ある。

今すぐ解決が求められている問題にしては、先の長い話に見えるが、それが現実であるとすれば、今後多少のトラブル発生は覚悟しておく必要がある。

というのも、倫理の問題が解決しきれないからといって、自動運転車の開発は止まらないだろうし、交通事故を圧倒的に減らし、排ガス逓減、エネルギー節約につながる等、一方でメリットがあることもわかっているから、多少の問題には目をつむっても導入を進めた方が良い、という判断も(特に米国のような国では)働くはずだ。

■成熟した社会には成熟したAIが育つ

結局ところ、決め手がなくて、曖昧なままの状態を受け入れるしかないということだろうか。

だが、そうだとしても一つ言えることは、個人のレベルで、この倫理哲学問題はきちんと理解して、自分の主張をはっきりと明示できるように言語化しておくことが望ましく、ゆくゆくは必須となっていくと考えられることだ。

それは、先ずは、自分と自分の家族を守る非常に重要な武器となっていくと考えられる。そして、そのような人が多い社会で働くAIは賢く、倫理的にも高度化する可能性がある。人任せにしていてはいけない。

一人一人が自分で考え抜く必要がある。AIの倫理のレベルはその社会の倫理のレベルに引き摺られると考えておくべきだ。そしてそれは、一人AIだけの問題ではなく、先端技術全般に言えることだ。社会の倫理、哲学的、宗教的に、レベルを上げていくこと。それが、結局のところ技術の突きつける問題を正しく導くための最善策ということになりそうだ。