AIって本当にバラ色の未来を約束するもの? 専門家に聞いてみた

「今はAIブームではなく、 全世界のいろんな領域を変えていく進化の過程なのです」

2017年11月14日 12時05分 JST | 更新 2017年11月16日 18時31分 JST

AI(人工知能)技術のビジネスや通信インフラなどへの普及が急激に進み、私たちの日常生活にも少しずつ馴染みのあるものになってきました。

進化のスピードがあまりに早くて、くわしくない一般人からすると、人間の知能を越えるレベルにまで達しているのではないかと、ちょっと不安になる人もいるようです。

AIに自分たちの仕事を奪われるのではないか、AIに人間の感情がすべて読み取られ、支配されるのではないかという不安。一方で、AIで人々の生活は劇的に改善されるのではないか、新しいイノベーションが起きるのではないかという期待。私たち人間からすると、まるでSF小説のような世界が来るのではないかと思ってしまいます。

AIは人間にとって敵なのか、味方なのか。最先端の研究に携わる上田修功さんに話を伺いました。日本電信電話株式会社コミュニケーション科学基礎研究所上田特別研究室長(NTTフェロー)機械学習・データ科学センター代表を務めています。

鈴木久美子 / GEKKO

上田修功(うえだ・なおのり)

日本電信電話株式会社 コミュニケーション科学基礎研究所 上田特別研究室長(NTTフェロー)機械学習・データ科学センタ代表。1958年大阪府生まれ。大阪大学大学院修士課程修了。工博。理化学研究所革新知能統合研究センター副センター長等兼務。専門は機械学習。共著書に「続わかりやすいパターン認識」(オーム社)等。

■ AIと人間の関係をより良くするためには、「法整備」と「倫理観」が必要

――AI は、豊かな社会を作っていくものだと言われていますが、未知のものに対する不安を感じている人も少なくありません。AIは、人間の未来にどのような影響を及ぼすものなのでしょうか。

AIの技術だけが先行すると、例えば仕事が奪われるとか、もっと極端なことを言えば、兵器などを勝手に作るのでは、人間にとって危険なものになるのではないかという不安を掻き立てるものになりがちです。

AI はコンピューターといった機械上で実現する技術であり、学習する機能を持っています。学習というのは人間と同じく、どんどん賢くなるのではないか、AIが上から目線になり、子供が学習したら親よりも知識を得るようになりますよね。それが機械に置き換わった時に、同じような脅威を感じるのでしょう。

いろんな人間が育っていくように、AIも多種多様なものが作られます。学習という機能が発達すれば、人と同じように、変わった思想を持つAIが出てきたり、人間がコントロールできない暴走するAIも生まれたりする可能性があります。

現状は完全に人間のコントロール下にありますが、将来学習機能を高めたAIが登場する可能性はあります。

AIの進化に対して人間がやるべきことは、2つあります。ひとつは、法律の整備です。

AIで制御する自動運転などでも、仮に事故を起こしたら誰の責任になるのか、という議論があります。通行人が飛び出してきた時に 、それを避けて運転手が被害を受けるのか、運転手を生かすためにやむなく通行人が犠牲になるのが正しいのか、それを AI が判断する時にそれは誰の責任になるのか。この点がはっきりしていないと、AIのシステムを導入することはできません。

現状は技術開発のスピードに法整備が追いついていない状況ですから、議論を加速させないといけません。

もう一つ重要なのは、人間の倫理観です。例えば、よく切れる包丁であれば危険性が高まってしまいますし、逆にそれをなくそうとすれば、 全く切れない包丁は役に立たなくなってしまいます。最終的にはAIを教育する上で人間の倫理観が求められます。いつの時代でも、倫理教育をしっかりさせないと、 悪用が起きるわけです。

ただし、倫理と一言で言っても、価値観が多様化している今、一方的に押し付けるものであってはなりません。これが人工知能開発における最も重要な側面なのです。

鈴木久美子 / GEKKO

——私たちが普段の生活の中で AI と接する時、気を付けなければいけないことは何でしょうか。

信頼感さえあれば、あまり恐れる必要はありません。機械と一緒で、「この機械は何をするかわからない。暴走するんじゃないか」と思うとおっかなびっくりになってしまいますよね。例えばきちんとブレーキがかかる車であれば安心だと思いますが、整備ができていないような車であれば不安を感じるのと同じで、AIは人間にとって信頼性のあるシステムなんだ、と思えるようになることが条件です。

ですから、AIにも信頼性があるというお墨付きが事前にないといけないことは確かですから、開発者の倫理観が重要になってくるわけです。

―― 開発者側が信頼性のあるものを作り上げていくことが一番のキーポイントなんですね。開発現場を考えた時、開発者 サイドが信頼性を向上させるために日々研究を行っていると思いますが、どれくらい向上しているものなのでしょうか。

我々開発者は何を目的として、 どういうゴール感を持って研究するか、これに尽きます。そういったゴール感は、社会の中で共有されている合意事項を基に作られるのです。

目的もないものを作ってしまうと、危険なものになる可能性もあります。明確なゴール感を持って「こういうものを作っています。こういうことで役立つのです」と言えることが重要なのです。

鈴木久美子 / GEKKO

■「やっぱり AI っていいよね」と思えるようになるには

―― AI を実生活に役立てるために、使いこなすにはどういったことが必要なのでしょうか

AIの役割は大きく2つあります。1つは人間の知性・思考を完全に模倣すること、これはまさにロボットを作ってしまうことです。もう1つは、人間の能力を補強し、高めることです。例えば足が悪くなって歩けなくなった人に、人工の義足をつけるときに、単純な機械をつけるだけではなくて、多少知的な機械をつけて歩けるようにする。

人間の困っているところを補強する、調べ物をするときに音声認識で調べられるようになる――こうした機能は昔に比べると明らかに便利になっているんですよね。

それがもっと知的になったシステムがAIです。 NTTもAI技術「corevo(コレボ)」を活用し、そうした知的なシステムを目指しています。なぜかと言うと、人間が機械に頼りすぎて、例えばカーナビに頼ってしまって道を覚えない、どこを曲がるかの判断は機械任せで、渋滞が起きた時にどの道を進んでいいか全くわからない。

そういう社会ではなくて、機械を使うことで能力をさらにアップさせる方向に持っていくことが大事で、そうすれば社会も豊かになりますし、みなさんが「やっぱりAIっていいよね」と思えるようになるはずです。

判断すらできなくなって何でも機械に聞いてしまうのではなくて、的確に判断の材料を機械から得ることが重要なのです。知的な行動の主体はあくまで人間でなければいけません。

■AI は「どこにでも役立つもの」

―― NTT が「corevo(コレボ)」を開発する上で、AIの研究ジャンルを4種に分類されていますが、 それぞれどういったものでしょうか?

NTTでは、AI技術開発のジャンルとして、それぞれ「エージェントAI」「ハートタッチングAI」「アンビエントAI」「ネットワークAI」に分類しています。

「エージェントAI」は、認識理解のジャンルです。人間が発信する情報を捉え、意図や感情を理解するというものです。NTTの音声認識技術で深層学習の研究を進め、レベルの高い認識技術を使っています。

「ハートタッチングAI」は、人間の心と体の様子を読み解き、深層心理や知性、本能といったものを理解する研究です。こうした研究をAIで行っているという意味では、NTTが先導しているジャンルと言えます。

「アンビエントAI」は人間やモノの環境を総合的に予測、制御し、インフラを高度化させる研究で、これはNTTオリジナルです。予測から制御、運動を誘導する技術はまだ実現していません。予測自体はかなり技術開発が進んでいますが、これからのジャンルと言えます。

「ネットワークAI」は、NTTの基幹とも言えるネットワーク通信にAIを導入することで安全安心な通信環境をつくろうとしています。これはNTTの本来の業務を、AIでさらに進化させる、という意味合いがあります。

corevoが技術開発を進める、「4つのAI

―― 現在上田さんがされている研究から見えてくる、人間と AI が共存する幸せな社会とはどういうものなのでしょうか。

まず注意しなければいけないのは「そもそもAIとは何か」を定義しなければいけないことです。今、様々な機械やシステムが開発されていますが、何をもって AI と呼ぶのか。

私が考えるAIとは、今まで解けなかった問題を、今まで使っていない情報(データ)で、新たなアプローチで解決するのがAIと言えるのではないかと思います。たとえば、囲碁の世界チャンピオンに勝ったアルファ碁も、従来のゲーム理論(※1)に加え、盤面を画像としてとらえ、強化学習(※2)という機械学習技術を導入してレベルを一気に上げました。

※1 ゲーム理論......ゲームを行う場合、相手の手の打ち方を読んで、できるだけ自分の得点を高くし、失点を少なくするにはどうするか、という方策を求める数学理論。

※2 強化学習......人工知能における、コンピューターによる機械学習の一種。解決すべき課題に対し、より正しい結果を得るため、試行錯誤を通じて自ら得られる報酬が最大化するよう学習を進める。

強化学習技術そのものは20年以上前の技術ですが、盤面を画像と見なし、まるでプロ棋士のような、盤面での"厚み"という感覚をコンピュータも学ぶことができるようになったという点で画期的だったのです。

そういう技術の総称をAIと呼ぶと考えると、医療にしろ、防災・減災にしろ、社会の中で困っていることや強化したい領域に機械学習の技術とビッグデータを取り入れることで、世の中を良くしていくことができるのです。

今、 自然科学や社会科学、人文科学でそれぞれ研究が進んでいる中、ビッグデータと人工知能の技術を投入することで、一気に研究を進めることができるようになり、良質なアウトプットができるようになる。そこに無限の可能性があるのです。そういう目で見たらAIはロボットとか通信といった狭い領域で見るのではなく、ビッグデータとIoT、そしてAIがすべての領域をカバーし、これから社会が進化する上で研究開発の大きな方向を決める要素になるのです。

鈴木久美子 / GEKKO

膨大なデータを使って何をするべきか、これが今の AI に問われていることです。ですから今はAIブームではなく、 全世界のいろんな領域を変えていく進化の過程なのです。そういう意味でAIは無限の可能性を持っていると言えます。

AIはどこに役立つのか、と考えるのではなく、どこにでも役立つものだととらえてほしい。研究が進んでいない領域を今使っているデータやアプローチとは別に、違うデータやアプローチで取り組むことによってその領域の研究成果を高めることが重要なのです。

広い意味で、あらゆるものの効率を上げていく技術、それがAIといえるのかもしれません。