e人工知能の軍事転用  規制めぐる議論、日本がリードを

  • 2016.12.21
  • 情勢/テクノロジー

公明新聞:2016年12月21日(水)付



コンピューターが人間のように学び、考え、判断できる人工知能(AI)技術の進化が目覚ましい。

人の脳神経回路をまねた「深層学習」と呼ばれるAI技術は、人が脳の中で無意識に行っている情報処理を実現したものだ。大量の画像や音声などの情報の中からコンピューターが自ら注目すべき特徴を見つけ、例えば、どれが猫で、どれが犬で、どれが鳥なのかを、まるで人間のように判別するという。

しかし、こうしたAI技術が兵器開発に用いられたらどうなるか。世界的に著名な情報工学者であるスチュアート・ラッセル米カリフォルニア大学バークリー校教授が指摘する「殺人ロボットが戦場をさまよう未来」の到来を、何としても回避すべきだ。

各国は来年から、この問題について本格的な議論を開始する。今月、国連の特定通常兵器使用禁止制限条約(CCW)の運用検討会議が開かれ、ロボットが人間の指示を待たずに自らの判断で標的を定め、人を殺傷するような「自律型致死兵器システム(LAWS)」の規制をめぐる公式の政府専門家会議を立ち上げることで、同条約の締約国(日本や米国、中国など123カ国)が合意した。

現在、戦時における戦闘手段の規制や非戦闘員の保護などを定める国際人道法には、LAWSを想定した規定がない。だからこそ国際社会がLAWSについての議論を深めることは大きな意義がある。

LAWSは現在、まだ存在しないが、技術的には開発可能であるといわれている。

実際、イスラエルは、AIを搭載した偵察用の無人自動軍用車を既に配備している。米国などがテロリストの掃討で活用している無人攻撃機(ドローン)とは異なり、遠隔操作も必要としない、完全に自動で動く軍用車である。さらに進んで、自動で攻撃するロボット開発も不可能ではなく、AIは今や「火薬、核兵器に次ぐ第三の革命的兵器を生む技術」であるという。

AIは民生用であれば人の生活を豊かにする技術である。半面、その軍事転用をいかに規制すべきか。平和国家であり、ロボット技術大国でもある日本が議論をリードしていきたい。

月別アーカイブ

iこのページの先頭へ