2025年9月3日、中国北京で開かれた戦勝節の軍事パレードでドローンなど武器編隊が行進している。[AP=聯合ニュース]
15日(現地時間)のニューヨークタイムズ(NYT)によると、冷戦時代の安保原理は「相互確証破壊(MAD)」だ。核には核で報復され、共に大きな被害を受けるという認識が核攻撃を防いだ。しかしAI軍備競争ではこの前提が成立しない。抑止力が作用するには相手の報復能力を確実に知る必要があるが、AI体系は発展の限界が明確でなく把握が難しい。多くのプログラムが研究・開発段階において予算は機密だ。NYTは「米・中・ロの情報機関は互いに相手の力量を推論しているが、正確にどちらがどれほど進んでいるかは不明」と見なした。
構造的な違いも注目される。冷戦時代に核武力競争は政府または軍が主導したが、AI競争はスタートアップとベンチャー投資家が主役だ。米国の国家防衛産業の主導権はシリコンバレー技術企業に渡った。米国防総省のAI頭脳と見なされる「プロジェクトメイブン(Project Maven)」が代表的な例だ。2017年に始まったプロジェクトは2019年から米企業パランティアが運用している。
メイブンはイラン戦争で証明された。ブラッド・クーパー米中央軍司令官は作戦開始初期の数週間にメイブンが「数千個の標的を生成した」と評価した。ジョージタウン大安全保障・新興技術センターのエミリア・プロバスコ主任研究員はNYTに「大規模なデータ流入と運用人材の熟練度が米国の優位を生み出している」とし「中国も似た体系を持つ可能性が高い」と診断した。しかし開発のハードルが下がった分、終着点も判然とせず、消耗的な革新競争が続く可能性が高い。
しかも人間の判断速度を超える未来のAI戦争で人間の役割は限定的だ。これはイラン戦争後にパランティアが主催したカンファレンスによく表れている。試演映像の中の衛星画面で敵の倉庫前にトラックの行列が捕捉されると、将校はマウスでこれをクリックした。AIはわずか数秒後にこの標的に最も適した武器を提案し、費用まで計算して完ぺきな攻撃計画を立てた。人間が熟考する時間は必要でなかった。米国側の関係者は「人間の介入は『左クリックか右クリック』程度だった」と話した。
問題はAIがミスをする場合だ。2月28日、米軍のトマホーク巡航ミサイルがイラン南部ミナブの小学校を攻撃し、165人の児童・教職員・保護者が死亡した。かつてイランのイスラム革命防衛隊(IRGC)海軍施設の一部だったここをAIが古いデータに基づいて誤認して打撃した可能性が提起される。
それでもAI軍備競争は続いている。NYTによると、米国は最新予算案に自律武器システム開発用として130億ドル(約2兆円)以上を編成した。中国の投資規模も米国に匹敵する規模と推定される。ロシアは5年間続いたウクライナ戦争を自国の自律武器の実戦試験場として活用している。ウクライナも戦場データをパランティアなどに提供し始めた。
ジャック・シャナハン元米軍中将は「(AI戦争では)相手が何かを隠していると感じる以上、安全でないシステムを互いに戦場に投入する悪循環が生じる」とし「技術が統制を抜け出す前に限界線が必要だ」と助言した。
この記事を読んで…