殺傷能力のあるドローンをAIが“操作”する日がやってくる
2020年8月のある日、シアトルの南40マイル(約64km)の場所に軍用ドローン数十機と戦車のような外観のロボットが集結した。そのミッションとは、複数の建物にテロリストが隠れていないか確認することである。
ロボットをはじめ非常に多くの機械が動員されていたので、すべてに目を配るには人間のオペレーターの数が足りなかった。そこでロボットは敵の戦闘員を見つけるだけでなく、必要な場合には殺害するようプログラミングされていた──。
この演習を主導したのは、米国防総省の傘下で軍事技術を研究開発する米国防高等研究計画局(DARPA)である。演習ではどのロボットも殺傷力のある兵器は装備しておらず、敵役との“対戦”のシミュレーションを送受信する無線通信装置が積まれていた。
こうした実験的なオペレーションは、20年夏に何度か実施された。演習の目的は、軍用システムの自動化において人工知能(AI)をいかに利用するのか模索することにある。利用が想定されている状況は、事態が複雑で進行が速く、必要な決定を人間がすべて下すことが難しいような場合だ。
コンピューターは複雑な状況の分析や素早い対応において、人間より優れているという事実が明らかになりつつある。これに伴って自律型兵器に対する国防総省の考えも変わってきており、その変化を反映したものが一連のDARPAのデモンストレーションということだ。
米陸軍の近代化を担う将来コマンドに所属するジョン・マレー将軍は、陸軍士官学校で4月にスピーチした際に、軍事作戦の現場へのロボットの導入が増えてきたことについてある問題を提起している。自動化されたシステムにおいて敵の殺害という決断を下すのが常に人間であるべきなのか、作戦の指導者や政治家、そして社会が決断すべきときが来ているというのだ。
そしてマレーは、次のように問いかけた。「どこで人間が介入すべきなのか、それを判断する能力が人間にはあるのでしょうか」
人間には100の決断を瞬時に下すことなどできるのだろうか──。「そもそもシステムのプロセスに人間を組み込んでおく必要があるのでしょうか?」と、マレーは問う。
米軍に浸透する自動化の議論
米軍の上層部には、自律型兵器における機械の権限の拡大を後押ししていることを示唆する発言もある。
米空軍内で5月初めに開かれたAI関連のカンファレンスで、AIの思考形態は進化しているとマサチューセッツ工科大学(MIT)のマイケル・カナーンは指摘している。彼はAI分野においてMITと空軍との協力を担当する人物で、AIの利用を巡って軍内部で強い影響力をもつ。
カナーンは以前から、AIは標的を割り出すといった作業を担い、人間はより高度な判断を担うべきだと主張している。「わたしたちは、そうした方向に進んでいくべきだと考えています」と、彼は語る。
このカンファレンスでは空軍中将で戦略などを担当するクリントン・ヒノテが、自律型致死兵器システム(LAWS)から人間の判断を外すかどうかは、「将来的に予想される最も興味深い議論のひとつで、まだ答えの出ていない問題」であると発言した。また、政府の諮問機関である米国人工知能安全保障委員会(NSCAI)は5月に提出した報告書において、米国は自律型兵器の開発禁止を求める世界的な動きに従う必要はないと結論づけている。
DARPAでAIを用いた兵器に関連するプログラムマネージャーを務めるティモシー・チャンは、昨夏に実施された一連の実験的な演習は、ドローンを操作する人間のオペレーターが自律システムにおける判断を下すべきときとそうでないときを見極めるために計画されたのだと説明する。