「人工知能脅威論」が覆い隠す、本当の問題は何か?ーー日仏の研究者が議論

人工知能技術の急速な進展によって、人の価値観や社会のあり方が変わることへの不安は大きい。

人工知能ブームに湧く中、研究開発投資や社会実装が加速する一方で、人工知能が社会へ浸透していくことによる懸念も少なくない。

中でも、人工知能技術の急速な進展によって、人の価値観や社会のあり方が変わることへの不安は大きい。

5月29日、六本木アカデミーヒルズ49(東京・港)で開かれた日仏フォーラム「人工知能は社会をどのように変えるのか?」では「人工知能が喚起する倫理的問題とは」と題したセッションで、日本とフランスの研究者らが、人工知能と倫理について議論を交わした。

Open Image Modal

左からガナシア氏、石田氏、ドヴィレー氏、西垣氏、原山氏、江間氏

「人工知能」とひとことで言っても、人によって思い浮かべるものは異なるだろう。

もともと新しい学問分野として約60年前にスタートした時には、「すべての知性を機械が模倣できる、数学で記述できるという仮定から始まった」と米ピエール・マリキュリー大学情報学教授で、フランス国立科学研究センターCNRS倫理委員会長を務める哲学者のジャン=ガブリエル・ガナシア氏は説明する。

一方で、東京大学名誉教授の西垣通氏は、

「(1950年代の)人工知能の第一次ブームではコンピュータは間違えない、正確性があるという前提があったが、実際には世の中は論理で解決できる問題はとても少ない。そこで、(1980年代の)第二次ブームも挫折した。一方で、(ディープラーニングの貢献が大きい)今の第三次ブームのポイントは、コンピュータは間違えるものだということ。機械学習はデータと統計で結果を出すから、間違えることもある。にも関わらず、世間では人工知能は間違えない、正しいものであるという信念があるのが問題ではないか」

と話した。

セッションでは、まず、人工知能と倫理をめぐり、現実的に私たちがすでに直面している具体的課題について議論が進められた。

内閣府で「人工知能と人間社会に関する懇談会」座長を努めた原山優子氏は、同懇談会でも人工知能を巡っては「SFの話は辞めるというルールを決めた。現在すでに活用されているもの、近未来にフォーカスを絞った」と話す。

「シンギュラリティ仮説」は本当の問題を覆い隠している

だが急速な技術の進歩とその懸念は、現状認識を困難にさせる。レイ・カーツワイルが言う「シンギュラリティ仮説」では、2045年頃に人工知能の能力が人間の能力をしのぎ、機械の支配が進み世界が大きく変わるとしている。

こうしたシンギュラリティの懸念を煽る声も少なくなく、「人工知能脅威論」が根強くあるのが現状だ。

一方で、ガナシア氏は近著「そろそろ、人工知能の真実を話そう」(早川書房)で、「シンギュラリティ仮説」には科学的根拠はなく、むしろこれを喧伝するGAFA(Google、Apple、Facebook、Amazon)といった大手IT企業の経済的、政治的戦略に目を向けるべきだと説く。

人工知能技術はすでに社会で幅広く活用され、今後も普及していくだろう。

だが、シンギュラリティ仮説が喧伝される影には、人工知能をめぐる本当の問題が隠されているとして、フランスではGAFAが個人の情報を集めて情報操作をしているという懸念や、特定の情報にしかアクセスしなくなり情報の殻に閉じこもったような状態であるフィルターバブルの問題があると指摘する。

「人工知能は膨大なデータを処理するが、その情報は噂といった個人的なものも含まれる。そのため企業は(そうした個人情報含め)すべてのデータを収集し処理し、利用しようとする。こうしたことに関する倫理的な懸念があるが、フランスではこうした倫理を考えようと言った意識が徐々に広がっている。人工知能はすでに社会のすべての次元に入ってきている。人工知能のアルゴリズムは人間に代わって、何かを決めることがあるかもしれない。一見アルゴリズムのほうが中立的に見えるが、実は倫理的問題が含まれている」(ガナシア氏)

今の人工知能ブームはディープラーニングなどの機械学習がブームの中心を担っている。その前提にはビッグデータがあり、それを収集し、人工知能によって解析して利用することで、経済的価値を生み出すという流れだ。ここでは、複数の倫理的な課題がでてくる。

ガナシア氏が指摘した、それを使う側の人間やデータの問題に加えて、技術そのものが持つ課題もある。

「ディープラーニングは認識と学習をするが、何かを決定したときの説明ができないブラックボックス。高いパフォーマンスであっても、説明できないということが倫理的な課題につながる」とパリ・ソルボンヌ大学教授で人間と機械の感情、人工知能などの研究が専門のローランス・ドヴィレー氏は言う。

未来の人工知能の懸念は何か

一方で、人工知能がもたらす未来の人間のあり方にも話が及んだ。

東京大学教授の石田英敬氏からは、

「社会は人間の意識やファクトを前提に動いている。人工知能が今ないものを推論するとなると、その意識やファクトに基づく人間社会がゆらいでいくのではないか。自分の見る夢でさえも、機械が分析する対象となるとなると、人権の問題にもなる。機械にすべてをまかせて、人間は豊かな意識生活を送れるかどうかは不安になる」

という問題提起がなされた。

ドヴィレー氏も、技術の進展に触れ、

「Google、Facebookのブレインマシンの研究者の中には、言語を介さないで人の意志を知りたいと思っている。これは倫理的なものなのか。去年のサイバスロンでは脳波でゲームのアバターを動かした。障害者が使うなら便利なもの、ただ健常者の能力を引き上げるのなら倫理問題となる」

と指摘した。

人工知能への懸念は、その「自律性」もそのひとつだ。機械が「自律性」を持つと、人間の判断なしで機械が決定を下し、人間による制御ができなくなるのではないかという懸念があるためだ。

これについては西垣氏は「機械は過去のデータを元に動くもの。だから、全く新しい考えが出てくるわけではなく、人間と機械の役割分担ははっきりしている」と言う。

またドヴィレー氏は、「多くの人が自律型の機械に恐怖を感じるあまり理解しようとしなくなっている。技術そのものは自律型でもないし、感情も持たない」とした上で、それよりももっと考えるべき問題があるとして、データ収集の問題、プライバシーの問題、忘れられる権利の問題、ロボットを使わない権利は残るのか、といった問題を提起した。

司会を務めた東京大学特任講師の江間有沙氏は、「人工知能と社会、倫理問題は多くの領域にまたがり、いろんな人を巻き込んで話を進めていくことがとても重要だ」と話した。

人工知能と倫理を巡っては、世界中の政府機関や研究者コミュニティ、非営利組織などが報告書などのドキュメントを出しており、世界中で議論が進んでいる。

例えば、情報通信技術の標準化を担うIEEEのグループは昨年末「Ethically Aligned Design(倫理的に配慮されたデザイン)」、イーロン・マスクらによる非営利組織「Future of Life Institute」は今年1月に「アシロマAI原則」を公開、日本の人工知能学会倫理委員会は今年2月に「人工知能学会 倫理指針」を発表、内閣府の「人工知能と人間社会に関する懇談会」は今年3月に報告書をまとめた。日本の総務省もまもなく、人工知能の開発原則を公開する予定だ。

今後もこうした議論はより活発になっていくだろう。