BLOG
2018年12月18日 11時01分 JST | 更新 2018年12月18日 11時01分 JST

キラーロボットの規制に向けて、第2回勉強会を実施しました

脳科学者の茂木健一郎氏は「AIの研究開発は密室でできるため、禁止条約が充分に機能するのか」という疑問を投げかけました。

AI(Artificial Intelligence:人口知能)が発達し、人間の知性を超えるシンギュラリティ(技術的特異点:人口知能が人間の知性を超えることにより、人間の生活に大きな変化が起こるという概念)が2045年に到来すると言われています。
AIが搭載されたキラーロボット(殺傷ロボット)は、人間の介入・操作なしに攻撃目標を定め人を殺傷する兵器です。「自立型致死兵器システム」(Lethal Autonomous Weapons System:LAWS)とも呼ばれ、まだ実戦配備はされていませんが、米国・ロシアなど十数ヵ国が開発中です。核兵器に次ぐ兵器革命をもたらすと警告されるキラーロボットが誕生しないよう、2013年4月に国際的な組織「キラーロボット反対キャンペーン」が発足しました。28ヵ国から64団体が参加し、AAR Japan[難民を助ける会]は発足当初から同キャンペーンの運営委員として活動しています。

AAR Japan[難民を助ける会]
会場の衆議院議員第二会館の一室。40名の定員満席での開催となりました

2018年11月20日、当会を含め5つの国際NGOと遠山清彦衆議院議員を中心とした超党派議員6名の共同で2回目の「キラーロボットのない世界に向けた日本の役割を考える勉強会」を開催しました。一般市民や外務省、防衛省、政府関係者、専門家、NGO職員など約40名が参加しました。当日の様子を、東京事務局の二ノ宮健介が報告します。

第1回目の勉強会についてはこちら

国会議員遠山清彦議員(公明党)、小野寺五典議員(自民党)、小林史明議員(自民党)、山内康一議員(立憲民主党)、小熊慎司議員(国民民主党)、遠藤敬議員(日本維新の会)
NGO

特定非営利活動法人 難民を助ける会(AAR Japan)、特定非営利活動法人地雷廃絶日本キャンペーン(JCBL)、特定非営利活動法人 日本国際ボランティアセンター(JVC)、国際人権NGOヒューマン・ライツ・ウォッチ(HRW)、特定非営利活動法人ヒューマン・ライツ・ナウ(HRN)

まず、政府関係者、専門家、NGOそれぞれの立場から見解を述べました。
外務省および防衛省からは、「人間が関与しない完全な自律型の致死性の兵器システムの開発には反対であり、兵器を使用する場合は人間の関与が必須である」と、日本政府の見解を表明しました。それに対して、遠山清彦衆議院議員が「まだ存在しない兵器を禁止することができるのか、この勉強会で議論してほしい」と呼びかけました。
脳科学者の茂木健一郎氏は、AIの研究開発は密室でできるため、核兵器と違い実証が非常に難しいこと、それ故に禁止条約が充分に機能するのかという疑問を投げかけました。加えて、「AIは汎用性があり、さまざまな技術開発ができる。人間の判断を関与させるかどうかは、ボタン1つの違い。人間が関与しない全自動的なキラーロボットの規制は、包括的な禁止ではなく、ほんのわずかな部分への規制に過ぎない」と、条約策定に向けた懸念を示されました。千葉工業大学未来ロボット技術研究センター所長の古田貴之氏と慶應義塾大学理工学部教授の栗原聡氏は、「条約を策定するにあたり一番の問題はキラーロボットの定義である」と指摘されました。地雷廃絶日本キャンペーン代表理事の清水俊弘氏とAAR理事長の長有紀枝は「日本は、国際社会から禁止運動において期待されている。核兵器を経験した国のNGOとして、予防的な禁止運動に積極的に関わっていくべき」などと述べました。

AAR Japan[難民を助ける会]
防衛省職員(中央)は「人間が関与しない兵器は反対である」と表明しました
人口知能システムなど、技術的観点から議論を広げる慶応大学理工学部教授の栗原聡氏(右)、左は脳科学者の茂木健一郎氏

パネルディスカッションで議論白熱

続いて、遠山議員をモデレーターに、外務省、防衛省、専門家、NGOによるパネルディスカッションが行われ、キラーロボットの定義や問題点などが話し合われました。

AAR Japan[難民を助ける会]
前回の勉強会に続き、モデレーターを務めた衆議院議員の遠山清彦氏

そのなかで特に興味深かったのは、AIの技術が高度化することによって、戦争や殺人の境界線が曖昧になるかもしれないという点です。
国際人道法では、民間人や非軍事施設への攻撃を禁止するなど、武力紛争時においてのルールを定めています。同法では、戦争において兵士を殺すこと、民間人に被害を与えることは必ずしも罪になるわけではありません。対して、平時に人を殺すことは犯罪になります。罪になるか否かの境界線は、政治的に、人が決めています。ところがAI兵器を使用することで、この境界線を超える恐れが2つ考えられます。一つはAI兵器が暴走すること、もう一つは同兵器が誤使用されることです。前者は、技術的な抑制で防ぎ、後者は政治的に管理を強化することで抑制できると考えられています。

AAR Japan[難民を助ける会]
特定通常兵器使用禁止条約(CCW)の公式協議に参加した経験をもとに議論を展開する拓殖大学国際学部教授の佐藤丙午氏

しかし、AI兵器が高度に自動化され、「民間人と軍人を確実に判別できる」など合法的な判断までもが可能になれば、人間が政治的に引く境界線が曖昧になる可能性があります。
一方で、専門家からは、AI自体が完璧だとしてもそれに付随する機械が誤作動を起こす可能性があると指摘がありました。もし、キラーロボットが誤作動を起こし、民間人を殺傷した場合はその責任は誰が取るのでしょうか。人間が介入する場合は、その人間が刑事的処罰を受けることになります。しかし、キラーロボットの場合はその対象が非常に曖昧です。

キラーロボットの禁止条約の早期締結を訴える地雷廃絶日本キャンペーン(JCBL)代表理事の清水俊弘氏(右)、左はヒューマンライツウォッチ代表の土井香苗氏

多くの国は、重機関銃や戦闘機、核兵器、化学兵器、地雷、クラスター爆弾などの使用に対して禁止条約を締結しています。しかし、それは甚大な犠牲者を生んだ後で、限定的な範囲でしか規制できていません。人類は、自らが発明した兵器で、今もなお多くの犠牲者を出し続けています。
一方で、キラーロボットは実戦配備されておらず、キラーロボットによる犠牲者も出ていません。日本政府は、これまでの国際会議で「人間の関与しない致死性の兵器システムの開発には反対」と述べているものの、条約作成に主導的な役割を果たせていません。

存在しない兵器を禁止することは、定義の問題などがあり非常に難しいことです。しかし、犠牲者が出る前にキラーロボットの開発・禁止条約の締結を主導することが、唯一の被爆国として、日本国憲法前文に「平和を維持し、専制と隷従、圧迫と偏狭を地上から永遠に除去しようと努めている国際社会において、国際社会において、名誉ある地位を占めたいと思う」と記している国の責任なのではないでしょうか。当会も、その日本のNGOとして引き続き活動を続けてまいります。

AARの日本での活動報告はこちらから