AI(人工知能)に投資しないリスクを怖れよう

AIの未来は、思い切った投資に踏み切り、例えそれが挑戦であろうとも、テクノロジーを研究し、継続的開発に資金を提供する企業の肩にかかっている。

【編集部注】著者のKR Sanjiv氏はWiproのCTO。

今後10〜20年間で人工知能がどのように変化するかを予測することは難しい。

しかしそこには沢山のことが待ち構えている。2018年までに、ロボットが監督する労働者は300万人以上になるだろう。2020年までには、スマートマシンは3割以上のCIOにとってトッププライオリティの投資対象になる。

ジャーナリズムから顧客サービスといった様々なものが既にAIによって置き換えられつつある。それは徐々に人間の経験と能力を置き換えつつあるのだ。かつて技術の将来と見られていたことがすでにここにある、そして残された唯一の質問は、それはどのようにマスマーケットに展開してくのかということだ。

時間が経つにつれて、現在AIの先進性を活用している産業から徐々に収集されている洞察 ‐ そしてそれに伴う技術の革新 ‐ が、アプリケーションの成長の中でAIをより堅牢で便利なものとして行くだろう。AIに多額の投資をする余裕がある組織は今、さらに追随するための勢いを増している最中だ。AIで自身を活かせる場所をみつけることのできない組織は取り残される虞がある。

リスク vs 利益

ビジネスに対するAIアプリケーションのリスクが、利益よりも大きいかどうか(あるいはその逆なのか)を予測することは不可能だと主張する者も居る一方で、アナリストたちは2020年までに、すべての経済取引の5パーセントが自律ソフトウェアエージェントによって取り扱われると予想している。

AIの未来は、思い切った投資に踏み切り、例えそれが挑戦であろうとも、テクノロジーを研究し、継続的開発に資金を提供する企業の肩にかかっている。それを偶然行ってしまう者もいる、例えば6年に渡ってあるプログラマーに合計50万ドル以上を払って、そのプログラマーが自分の仕事を自動化していたことを知っただけの企業のように。

AIの進歩の多くは軍事から来ている。米国政府が次年度のために要求したドローンの予算は46億ドルに上っている。現在フィールドで使用されている、人間によって操縦されるドローンを、人間の介在なしに飛行できるようなものに置き換えることが狙いだ。

AIドローンは、単に目的地を指定してやればよく、防空設備をかわしながら自身の目的地に到達することができる。とはいえ任意の致死攻撃決定はまだ人間の目によって行われる。

広く受け容れられている考え方は、堅実にやることで得られる利益よりも、取り残されて直面するリスクの方が遥かに大きいということだ。

学術面では、マサチューセッツ工科大学とオックスフォード大学といった研究機関は、人間の脳をマッピングしそれをエミュレートしようと日夜努力を重ねている。

ここには2つの異なる経路が存在している ‐ 人間の脳の複雑さを再現するAIを作成するやりかたと、実際の人間の脳をエミュレートするやりかただ。これには沢山の倫理的な問題や懸念がまとわり付いている。

例えばAIはどのような権利を持っているのだろうか?そしてあなたが愛する(エミュレートされている)人を収容しているサーバーがシャットダウンされたら何が起きるのだろうか?

これらの質問へは未回答のままだが、最終的には、全産業に対するAIシステムの実証済みの利便性が、全ての経済部門の主要なプレイヤーたちに、それと連携をするように拍車をかけるだろう。現在の情報技術が既存のすべての産業に実質的に不可欠であることと同様に、人工知能もそうなって行くことは誰の目にも明らかである。

計算の未来

これまでは、AIは主に特定の機能を果すための、事前にプログラムされたツールを作り上げるために使われてきた。これらは、著しく固定化されたものだった。こうした種類のAIベースのコンピューティング戦略が一般的になっている。

だが未来のAIは、真の意味での学習に依存することになる。言い換えれば、AIは、もはや何をしろと言われているかを理解するために、直接コマンドを与えられることに頼る必要はなくなるのだ。

現在私たちは、自動認識と学習に依存するGPSシステムや、発話を解釈するモバイルデバイス、そして私たちの意図を解釈することを学ぶ検索エンジンを利用している。とりわけプログラミングでの、AIにおける次のステップは、GoogleのDeepMindやIBMのWatsonのような進展をもたらすものになる。

DeepMindは知識ではプログラムされていない - 与えられたタスクのための手作りのプログラムまたは特定のモジュールは存在していないのだ。DeepMindは自動的に学習するようにデザインされている。システムは、最終結果に創発特性が得られるように、特に汎用性を目指して作られている。

グランドマスターレベルの囲碁プレイヤーを倒せるようなソフトウェアをプログラムできる能力のような、こうした創発特性は、DeepMindがそうするようにプログラムした人が誰もいないということを知れば、さらに計り知れない深い印象として受け止められることだろう。

伝統的なAIは、対象分野が狭くそして知識を得るようにプログラムされたことだけを行うことができるが、Olli(Watsonによって支えられた自動運転車)は、モニタリングと乗客との相互作用から学習を行う。新たな乗客が推奨観光スポットを訊ねたり、目的地を明示的に指示したりするたびに、その情報は記憶され、次の人のために使われる。新しいセンサーが常に追加され、車自身が(人間のドライバーのように)仕事をするにつれ、継続的に、よりインテリジェントになって行く。

しかし、これらのAIシステムは、Googleのような企業が彼らに本当にやって欲しいと思うことを行うことができるのだろうか。

例えば既存のリコメンデーションソフトウェアよりも優れている消費者の購買動向に関する予想などを?あるいは過去のパターンに関連付けることによって、動的にサプライチェーンの取引を最適化することなどを?そうしたところこそが、本当にお金のある場所なのだ。そしてそれらはゲームをしたり、運転したり、繰り返しタスクを行うよりもずっと複雑な問題なのである。

様々なAIプラットフォームの現在の実証例 - たとえばファッションの間違いを見つけたり、健康上の問題を予測するといったこと - は、明らかにAIが拡大していることを示しており、上に挙げたより複雑なタスクも、近い将来に現実のものとなるだろう。

程なく、AIは複雑な人間の意思決定プロセス、例えば投資アドバイスを与えるとか、患者に処方箋を提供するといったことなどを模倣できるようになるだろう。実際には、真の意味での学習による継続的改善によって、1次対応とより危険な仕事(トラックの運転のような)は完全にロボットによって引き継がれて、同じビジネスプロセスを繰り返す代わりに、問題解決のために人間が時間を使えるようになる新しい産業革命へと繋がって行くだろう。

AIへ投資しない代償

投資の利益とリスクは、漠然としていて、不確実で、推測の域を出ないものだ。ビジネスにおいて新しいもの全てに共通する、1つの良く知られたリスクは、不確実性そのものである。だからリスクは主に、誤った投資の形でやってくる、これは金融の世界では特に珍しい話ではない。

だから他の奇妙で新しいすべてのものに対する場合と同様に、ここで広く受け容れられている考え方は、堅実にやることで得られる利益よりも、取り残されて直面するリスクの方が遥かに大きいということなのだ。

(翻訳:Sako)

(2016年9月25日 TechCrunch日本版「AIに投資しないリスクを怖れよう」より転載)

【関連記事】

注目記事