【スカイネットは来ない?】AIが戦争を始めるという誤解...「引き金を引くのは人間」と断言できる理由
AI ARMS: WHO’S TO BLAME?
エストニアの防衛産業が開発したロボット戦闘車両HAVOC 8×8は、無人で戦場を走り敵陣に突入する。こうしたAI搭載兵器は戦争を変えるのか(2025年9月、ロンドン) JOHN KEEBLE/GETTY IMAGES
<映画『ターミネーター』のスカイネットのような「自律反乱」が、軍事AIをめぐる議論の中心ではない。問うべきは「AIが何をしたか」ではなく、「人間がそれをどう使ったのか」だ>
オーストラリアのペニー・ウォン外相は昨秋開催された国連安全保障理事会の会合で、AI(人工知能)の軍事利用に警告を発した。医療や教育などの分野ではAIの利用に大いに期待できるが、核兵器や無人兵器システムへの利用は、人類の未来を脅かす危険性があるというのだ。
「核戦争は今のところ人間の判断の範囲内に封じ込められている。責任を負う指導者たちの判断、人間の良心の判断に。だがAIにはそうした配慮はなく、責任を負うこともできない。こうした兵器は戦争そのものを変える危険性があり、警告なしにエスカレートさせるリスクがある」
これはAI規制を求める議論で、しばしば前面に出される見解だ。その背景にはテクノロジーと戦争の双方についての間違った理解がある。
ここで改めて問いたい。AIは本当に戦争の性質を変えるのか。AIは「無責任」に暴走するのか?
まず押さえておきたいが、AIは「全く新しい技術」ではない。AIという言葉が生まれたのは1950年代だ。今では大規模言語モデル(LLM)からニューラルネットワーク(人間の脳の動きを模倣した機械学習モデル)までさまざまな技術の総称になっているが、それぞれは全て大きく異なる。
AIの軍事利用は、戦闘作戦シミュレーションから意思決定支援システムまで幅広い。後者は攻撃目標の特定に使用される。イスラエル軍がイスラム組織ハマスなど武装組織の戦闘員とおぼしき人物を特定するために使用したといわれている「ラベンダー」システムがその一例だ。
AIの軍事利用をめぐる広範な議論にはいま述べた両方の例が含まれるが、生死に関わる決定で使用されるのは後者だけ。戦争という文脈におけるAIの利用で倫理的に問題になるのも、おおむねこの後者である。
究極的な責任は人間にある
軍事利用に限らず民生利用でも、AIの利用で何かトラブルが起きれば、「誰」または「何」に責任があるかが問われることになる。このように責任の所在が不明確な状況は「アカウンタビリティー・ギャップ(説明責任の空白)」と呼ばれる。
興味深いことに、AIに関しては説明責任の空白が大きな問題になっているのに、ほかの技術ではこれはほとんど問題にされていない。
ロケット弾や地雷のような従来型の兵器でも、その運用の最も危険な局面については、人間が監視したり制御したりすることは不可能だ。それでもこうした兵器が想定外の結果をもたらした場合、その説明責任が取り沙汰されることはない。
複雑なシステムの例に漏れず、AIも設計・開発し、導入・運用するのは人間だ。軍事利用では、これに指揮と統制が加わる。
つまり軍事目標を達成するための意思決定のヒエラルキーだ。AIはこのヒエラルキーの外に存在するわけではない。
AIシステムに責任を負わせることはできない。これは改めて言うまでもない事実だ。どんな状況であれ、生物ではない何かに説明責任を負わせることは無理な話である。
AIの軍事利用で説明責任の所在はどうなるかという議論は、的外れと言わざるを得ない。究極的にはどんな決断も人間が下し、決断に伴う責任は人間が負うのだから。
AIも含め複雑なシステムは全て、そのライフサイクルの間だけ存在している。システムの構想から始まって退役するまでの期間だ。
その全ての段階で人間が意識的に決断を下す。計画するのも設計するのも、開発し、導入し、維持するのも人間だ。決断は工学的な要求水準から法令遵守、運用の安全性など多岐にわたる。
システムのライフサイクルを通じて、人間が介入する明確なポイントがあり、一連の責任が生じる。AIシステムを導入するからには、その欠陥や限界も含め、その特徴は数々の人間の決断がもたらしたものにほかならない。
攻撃目標を特定するAI兵器システムは生死に関わる決断をするわけではない。決断をするのは、その状況でシステムを使うことを意識的に選択した人間だ。従ってAI兵器システムを規制することとは、そのシステムのライフサイクルに関わる人間を規制することになる。
AIが戦争の性質を変えるという考えは、軍事的な意思決定で人間が果たす役割を見えにくくする。AI技術には今も多くの問題があるし、将来もあり続けるだろう。けれども、それらの問題の出所をたどれば必ず人間に行き着くはずだ。
![]()
Zena Assaad, Senior Lecturer, School of Engineering, Australian National University
This article is republished from The Conversation under a Creative Commons license. Read the original article.
【関連記事】
日本がゲームチェンジャーの高出力レーザー兵器を艦載、海上での実戦試験へ
AIはもう「限界」なのか?――巨額投資の8割が失敗する現実とMetaのルカンらが示す6つの原則【note限定公開記事】
AI革命でアメリカ人の22%が「脱落」する...「使うふり」で乗り切ろうとする人も
アマゾンに飛びます
2026年1月13号(1月6日発売)は「AI兵士の新しい戦争」特集。ヒューマノイド・ロボット「ファントムMK1」がアメリカの戦場と戦争をこう変える
※バックナンバーが読み放題となる定期購読はこちら
-
プロダクトエンジニア「ポテンシャル採用/大手や外資系など3000社に導入/HR SaaS「ミキワメ」/東京メトロ日比谷線虎ノ門ヒルズ駅から徒歩2分/web系SE・PG/港区虎ノ門
株式会社リーディングマーク
- 東京都
- 年収400万円~550万円
- 正社員
-
プロダクトエンジニア「ポテンシャル採用/大手や外資系など3000社に導入/HR SaaS「ミキワメ」/港区虎ノ門/web系SE・PG/東京メトロ日比谷線虎ノ門ヒルズ駅から徒歩2分
株式会社リーディングマーク
- 東京都
- 年収400万円~550万円
- 正社員
-
生成AI商材/大手外資系「インサイドセールス「SV候補」」/その他コンサルティング系
ブリッジインターナショナル株式会社
- 東京都
- 年収340万円~450万円
- 正社員
-
外資系企業を支える「英文事務」土日祝休/年休120日/リモートOK
VISTRA Japan株式会社
- 東京都
- 月給27万5,000円~50万円
- 正社員






