人工知能(AI)兵器の規制を訴える イーロン・マスク氏ら著名人が公開書簡を提出

ホーキング博士など多数の科学者・実業家が、人間の遠隔操作を離れて自律判断で活動する人工知能(AI)兵器の開発禁止を訴える国連宛の書簡を公開しました。
Open Image Modal
Engadget

ホーキング博士など多数の科学者・実業家が、人間の遠隔操作を離れて自律判断で活動する人工知能(AI)兵器の開発禁止を訴える国連宛の書簡を公開しました。

書簡にはスティーブン・ホーキング博士やアップル共同創業者のスティーブ・ウォズニアック、テスラモーターズおよび SpaceX CEO イーロン・マスクといった著名人や先端企業のリーダーら、さらに多数のロボット工学、情報工学研究者が署名しています。

書簡を公開したのは非営利組織 Future of Life Institute (FLI) 。アルゼンチンのブエノスアイレスで開催されたAIに関する国際会議 International Joint Conference on Artificial Intelligence で、国連宛のメッセージとして発表されました。

『2001年宇宙の旅』、『ターミネーター』、『ブレードランナー』など、SF映画の世界ではたびたび高度に進化した人工知能(Artificial Intelligence:AI)や自律行動するロボットが現れ、人間に危害を加えてきました。しかしこうした AI や戦闘ロボットは創作物の中だけのものだからこそ、安心して見ていられます。

ところがここ数年、ニューラルネットワークと呼ばれる AI 技術をさらに進めた ディープラーニング技術などにより、ふたたび AI の研究が活発化しており、特定の分野に絞ればこれまでになく高度な人工知能が開発されています。

一方、戦場では原則的に遠隔操縦で飛ぶものの自律飛行も可能なドローン(無人航空機:UAV)による爆撃は珍しいものではなくなり、ロシアでは拳銃を発砲する戦闘ロボットの開発が進められています

公開書簡に署名した研究者たちは、AI の技術を軍事利用することで、今後数年のうちに自律的に破壊行動を行う兵器が配備可能になると警告します。AI やロボット工学を駆使すれば、戦場で生身の兵士が犠牲になる可能性を大きく減らせる一方で、それが却って戦争を引き起こしやすくする可能性も指摘します。

また AI を備えた兵器は核兵器などに比べて製作しやすく、大量生産によってコストを引き下げることもできます。さらにシステムの複製も容易いため、カラシニコフ自動小銃のように誰でも簡単に入手できるレベルにまで普及する可能性があるとしています。技術者たちは、そうならないよう AI 兵器に対するコントロールが必要であり、開発競争になることがないよう、自律行動可能な兵器の開発を自主的に禁止すべきと訴えています。

ただ、公開書簡には法的な拘束力もなければ、世界の国々がそれに従わなければならない理由もありません。実際のところ、ドローンによる爆撃にしても、人が操縦しているせいで誤って民間人のいる場所を攻撃しているケースもあります。恐怖心や疲労による注意力低下から戦端を開きかねない人間よりも、状況によってはAI兵器のほうが「冷静」に判断するかもしれません。

もしかするとこの書簡の本当の目的は、国連にAI 兵器の禁止について何らかのアクションを起こしてもらうことではなく、世界中の人々に AI 搭載の自律行動兵器が現れる可能性について知ってもらい、各国がそれを作りづらい雰囲気を生み出そうということなのかもしれません。

ちなみに、書簡に署名しているイーロン・マスクやスティーブン・ホーキング博士はかねてより人工知能の進化は人間にとって脅威になるという内容の発言をしていました。また今回の書簡に署名はないものの、マイクロソフト創業者のビル・ゲイツも今年2月、人工知能が人間の知力を超えることに懸念を表明しています。一方でマイクロソフトリサーチのエリック・ホロヴィッツは「AI は人類の脅威にならない」と主張する人物ですが、やはり軍事利用には反対のようで、今回の書簡にも署名をしています。