国問研戦略コメント(2026-6)中堅国と軍事AIガバナンスの未来

有賀海 (日本国際問題研究所研究員)

国問研戦略コメント(2026-6)中堅国と軍事AIガバナンスの未来

「国問研戦略コメント」は、日本国際問題研究所の研究員等が執筆し、国際情勢上重要な案件について、コメントや政策と関連付けた分析をわかりやすくタイムリーに発信することを目的としています。

イスラエルにおけるAI搭載ドローンによる監視や、NATO向けのPalantirのMaven情報システムなど、人工知能(AI)の軍事利用は、理論的な探究段階から実際の運用段階へと急速に移行している。しかし、その利用を統治するための国際的な取り組みは依然として断片的だ。一部の国家は兵站、サイバー、指揮統制システム全体にAIを迅速に統合することを競い合う一方で、他国家は、厳格なリスク評価、人間による統制、そして多国間の説明責任を求めている。

現在、軍事AIの統治をめぐる国際的な取り組みは、二つの異なる運用ロジックによって主導されている。第一は「能力加速(capability acceleration)」であり、競争相手より先に運用データや技術的優位を活用してAIシステムを迅速に実戦配備することを重視する。第二は「責任ある利用(responsible use)」であり、導入に先立って法的遵守、ライフサイクルにおける安全措置、そして共有された規範の確立を求めるものである。

これら二つのガバナンス・ロジックは、思想的な対決を直接行うというよりも、次第に互いにすれ違う形で議論が進んでいる。共通原則の宣言は依然として可能かもしれないが、時間軸、用語、制度的プロセス、成功指標の違いによって、実務面では分断が拡大している。

中堅国、とりわけ米国の安全保障パートナーは、この分断を橋渡しする機会を有している。AIおよび半導体のサプライチェーンを確保するための米国主導の構想であるPax Silicaは、実務的な参入点を提供している。Pax Silicaは、米国が単独で軍事グレードのAIを構築することはできないこと、そして計算資源、半導体、データインフラが政治的枠組みに深く組み込まれていることを示している。最近の出来事は、この力学を特に鮮明に示している。2026年2月、Anthropic社は国防総省からのモデルの安全措置を解除する要求を拒否し、結果として公式の使用禁止を招いた。しかし、その後も同社のClaudeモデルはイランでの標的選定作戦に深く組み込まれたままであった。こうした事例はAIの単独支配の限界と連合主導の規範形成の余地を示している。賢明に活用されれば、Pax Silicaは中堅国が共有基準に基づくガバナンスを推進するための戦略的な入口となり得る。

加速 vs. 説明責任:軍事AIガバナンスが分裂する理由

近年の動向は、前節で示した軍事AIガバナンスをめぐる二つの運用ロジック、すなわち「能力加速」と「責任ある利用」、の分裂が拡大していることを示している。本来、これらのアプローチは必ずしも両立不可能なものではない。しかし実際には、それぞれ異なるインセンティブに動かされ、異なる言語で表現され、異なるフォーラムで展開されるなかで、次第に異なる軌道で進みつつある。

米国防総省の2026年「AI加速戦略」は、能力加速ロジックの典型例である。「AIファースト」の戦闘部隊となり、「軍事AIの優位性」を達成するという野心を明確に示している。将来の紛争において決定的な変数は速度であると位置づけ、「速度が勝利をもたらす」と宣言し、「学習速度の兵器化」の必要性を強調している。特筆すべきは、戦略が「AIモデル・パリティ」という概念を導入し、最先端モデルを一般公開後30日以内に実戦配備するよう指示している点である。

この加速戦略は、軍事用ソフトウェアの試験、承認、配備プロセスにおける従来の安全措置を回避する改革によって実行される。さらに、この戦略はAI統合に対する「戦時アプローチ」を提唱し、従来の監督・認証・リスク管理手法はスピードの要請に譲歩すべきだと主張している。ある部分では次のように述べられている。

「十分な速さで行動しないリスクは、不完全な整合性のリスクよりも大きいと受け入れなければならない。」
事実上、「AI加速戦略」は熟議、協議、多層的な審査を安全措置ではなく負担として再定義している。

その結果、成功の尺度として信頼性や法的堅牢性ではなく、新兵器が戦場に投入されるスピードが重視される制度的姿勢が生まれた。国際人道法の適用や議会・同盟国による監督メカニズムなどの確固たるガードレールがなければ、このアプローチは誤りを減らすどころか拡大させる危険がある。Quincy Instituteの分析が指摘するように、熟慮を欠いた迅速な配備は決定的な突破口ではなく、防げたはずの戦争や苦痛をもたらす可能性がある。AI軍拡競争は、おそらく誰が最初に制御を失うかという競争なのかもしれない。

対照的に、軍事用AIを規制する多国間の取り組みは依然として断片的で進展が遅い。国連特定通常兵器禁止条約(CCW)では、各国が2014年から致死性自律兵器システム(LAWS)について議論しているが、進展は停滞している。政府専門家グループは、LAWSの定義さえ確立しておらず、まして規制や禁止に関する合意には程遠い。

一方、国連安全保障理事会は主導する意欲をほとんど示していない。2023年2025年にハイレベル公開討論が行われたにもかかわらず、軍事AIに関する決議や正式なプロセスは一切生み出されていない。新たな取り組み分野として浮上しているのは、核指揮統制(NC3)へのAI統合である。これを受け、国連総会は2025年にAIと核リスクに関する初の決議を採択した。この決議は法的拘束力を持たないものの、意図せぬエスカレーションや人間の制御喪失に関する長年の懸念を正式な外交フォーラムに持ち込み、今後の核拡散防止条約(NPT)議論で進展をもたらす可能性がある。

こうした背景のもとで、REAIM(Responsible AI in the Military Domain)サミットは、実務的かつマルチステークホルダー型のアプローチとして台頭してきた。オランダや韓国など中堅国政府が主導するREAIMは、条約交渉ではなく実施ツールと自主的な調整を軸に構築されている。2026年の成果文書「行動への道筋」では、法的順守、持続的な人間の関与、地域横断的な能力構築といった原則が示されている。重要なのは、REAIMの設計が技術者、市民社会、産業界の関係者を組み込み、規範的議論と運用上の現実の架け橋を築いている点である。法的拘束力はないものの、その包括的な形式により、より正式な国連機関では行き詰まっている安全保障策やガバナンス構想の実験が可能となっている。

しかし、REAIMの影響力は主要国の不参加によって制限されている。2026年にア・コルーニャで開催されたサミットでは、参加85カ国のうち最終宣言に署名したのはわずか35カ国であり、2023年2024年にハーグとソウルで開催された会合で得られた60カ国以上の支持から大幅に減少した。特に、米国と中国の不参加は、政治的インセンティブと制度的経路における不整合の拡大を浮き彫りにしている。この消極的な姿勢は、規範的コミットメントと戦略的抑制の間の広範な緊張を象徴しており、各国は囚人のジレンマに陥るケースが増加している。つまり、競合国に対して不利な立場に置かれる可能性のある制限を受け入れることに警戒感を抱いているのだ。さらに一部の国にとっては、米国や中国との関係性に対する不確実性も躊躇の要因となっており、将来的な大国関係と整合しない可能性のある原則を支持することに警戒感を抱かせている。

ウクライナガザでの紛争で明らかになったように、AIツールは既にサイバー戦、情報収集・監視・偵察(ISR)、意思決定支援などの分野で展開されている。こうした活用例は、軍事AIが理論から実践へ、そしてガバナンス努力を先んじて急速に進化していることを浮き彫りにしている。能力が拡散するにつれ、戦略的ジレンマはより深刻化し、一方では権利に基づく慎重な統合を主張する声が、他方では遅延を不利と見なす声が上がる。収束がなければ、AI統治は採用を形作るには遅すぎ、危害を防ぐには弱すぎるパッチワーク状の規範へと分裂するリスクがある。一方、最も重要な問題——システムが人間の偏見を再現するか、機械が致死的な決定を下すべきか、悪意ある主体がオープンソースツールをどう悪用するか——には、国際合意ではなく、先手を打った者が答えを出すことになる。

次元 能力加速ロジック 責任ある利用ロジック
時間軸 数週間での展開  複数年にわたる規範実装
主要指標  スピード、規模、採用率  コンプライアンス、リスク軽減、説明責任
推奨フォーラム  国防機関内での内部実行  多国間プラットフォーム、特に国連
中核用語  「AIファースト戦闘部隊」、「スピードが勝つ」、「学習速度の武器化」、「モデル・パリティ」  「責任ある利用」、「国際法遵守」、「技術的セーフガード」

中堅国のジレンマ

軍事AI分野における効果的なガバナンスの欠如は、軍事協力にとって体系的な脆弱性となっている。UNIDIRは、特にこうした動向を管理または形成する能力が限られている国家にとって、緊急の注意を要するいくつかの傾向を特定している。その一つは拡散リスクの増大である:法規範的枠組みの外で活動する非国家武装集団が、デュアルユースの低コストAIツールを入手しやすくなっている。もう一つはエスカレーションである:AIをNC3システムに統合する取り組みは、些細な誤算の代償を高め、この分野における控えめな信頼醸成措置さえも安定化要因となり得る。最後に技術的脆弱性:データ供給網、クラウドインフラ、相互運用性における脆弱性は、軍隊をデータ汚染、敵対的操作、自動化バイアスに晒すことになる。これらのリスクは連合環境下で増幅される。最近のNATOAUKUSのAI構想が示すように、軍隊がリアルタイムデータ共有とクラウド統合に依存すればするほど、AIセキュリティは純粋に国家的な機能ではなく、集団的な機能となる。

米国と同盟関係にある中堅国にとっては、統治の分断化がもたらす潜在的な代償は特に深刻である。同盟軍のAIシステムは、効果的な連合作戦を可能にするため、高度な相互運用性を備えなければならない。NATOのAI戦略は能力開発と提供においてAI導入を「加速し主流化する」こと、そして同盟内の相互運用性を強化することを明確に求めている。米国のアナリストも同様に、米国と同盟国が「AIを活用した能力について早期かつ頻繁に調整を行わなければ、軍事連合の有効性が損なわれる」と警告している。しかし相互運用性は戦略的に有益である一方、依存関係を深める。自国のAI開発を米国プラットフォームに整合させる同盟軍は、必然的に米国のソフトウェア更新サイクル、保証体制、技術基準に縛られる。これにより中堅国の軍隊は、米国が進化させるAIエコシステムとタイムラインに依存せざるを得なくなる。

この依存関係は米国の防衛産業戦略を通じて正式化されている。2025年の大統領令により「フルスタック米国AI技術パッケージ」の海外販売を促進するAI輸出プログラムが発足した。このパッケージには、クラウドインフラやデータパイプラインから、AIモデルやアプリケーションそのものに至るまでが含まれる。これは同盟国に最先端能力へのアクセスを提供する一方で、メンテナンス、ソフトウェア更新、そして独自サブシステムに関して長期的な米国依存を生み出す。F-35プログラムは有用な類例である:同盟国は最先端戦闘機を購入したが、戦闘態勢を維持するには米国が管理するソフトウェア、データ、ロジスティクスネットワークに依存して続けている。欧州の運用国の中には、もし関係が悪化すれば、米国がソフトウェア更新を停止することで事実上同盟国のF-35を飛行不能にできるのではないかと懸念する声もある。

AIの文脈においても、同様の依存関係により、同盟国軍が公に支持する安全対策、法的審査、リスク評価を経ずにシステムを配備する事態を招きかねない。規範を維持しつつ技術的競争力を保とうとする中堅国にとって、これは新たなジレンマである。すなわち、同盟との整合と戦略的自律性の間で緊張が高まる可能性がある。

同時に、ワシントンは先端半導体やAI関連技術への敵対国のアクセスを制限するため、輸出規制をますます積極的に活用している。これにより、軍事AI開発は事実上地政学的な線に沿って構造化されつつある。中堅国にとって、このエコシステムへの参加は最先端能力へのアクセスを提供すると同時に、実質的な自律性を狭めることにもなる。性能、相互運用性、ドクトリン上の整合性は、米国が定義する技術アーキテクチャの内部にとどまり続けることにますます依存するようになるからである。

最も根本的には、分断化がガバナンスそのものの正当性を侵食する危険がある。主要なAI開発国が責任ある利用へのコミットメントを回避しつつ、同時に高度な能力へのアクセスを制限する場合、国際規範はその意味を失う。その結果、責任ある利用に焦点を当てた議論と、能力の加速と戦略的排除に焦点を当てた議論という、重なり合いの少ない二つの並行した議論が展開されている。

ガバナンス・プラットフォームとしての Pax Silica

相互依存はリスクをもたらす一方で、同時に中堅国にとってのレバレッジの源にもなり得る。AIと半導体サプライチェーンの確保に焦点を当てたPax Silicaのようなイニシアティブは、まさに相互依存を制度化する点において戦略的な足がかりを提供する。重要鉱物、製造能力、ハイパースケールクラウドインフラ、国境を越えたデータエコシステムにおいて同盟国に依存している米国にとっては、単独で軍事AIの完全な自給自足を達成することはできない。Pax Silicaの「能力連合 (coalition of capabilities)」構造は、計算能力とインフラが同盟レベルのアセットであることを認めている。この組み込まれた相互依存関係により、中堅国は協力条件に影響力を及ぼせる。アクセス条件の付帯、共通基準の設定、上流工程での保証措置の要求などを通じて、中堅国はフロンティアシステムの運用上のガードレール形成に貢献できるのだ。

軍事AIの主要な構造的問題の一つは、ガバナンス介入がしばしば下流段階で行われることである。つまり、設計、調達、配備といった重要な意思決定がすでに固定された後に介入が試みられる。これにより、リスク発生地点とガバナンスメカニズムが機能する地点の間にレジリエンスのギャップが生じる。韓国やオランダのような中堅国は、Pax SilicaとREAIMの双方において重要な役割を担っており、AIおよび半導体サプライチェーンの重要な節点においてガバナンスを上流段階に組み込むのに特に適した立場にある。韓国や日本のプロセッシングおよびチップ設計能力、あるいはオランダの先端装置分野における優位性を通じて、これらの国々はシステムが実戦配備される前に安全措置を組み込むことができる技術層および保証層に影響力を持っている。

有望なアプローチの一つは、Pax Silicaエコシステム全体で調達適格性に関連する共有AI保証基準を開発することである。これには監査可能性、テスト・評価、レッドチームング基準、ライフサイクル文書化、インシデント報告メカニズムに関する共通要件が含まれ得る。共有コンピューティングリソース、サプライチェーン、共同プロジェクトへのアクセスをこうした基準への準拠を条件とすることで、責任ある利用原則を運用基準へと転換できる。

第二に、中堅国は強固なデータ・ガバナンスを優先すべきである。連合環境において、AIの性能はデータの質、追跡可能性、相互運用性に左右される。Pax Silica加盟国の多くは米国の軍事同盟国でもあり、データのキュレーション、出所追跡、セキュリティ、更新プロトコルに関する基準を整合させることができる。

これは単なる技術的な問題ではなく、集団的なリスクでもある。同盟のAIシステムの安全性は、その最も弱い部分によって決まるからだ。たった一つのパートナーのデータセットの管理が不十分であれば、共有モデルが汚染され、誤った出力を生み出す可能性がある。データを同盟国共有の戦略的資産として扱うことで、中堅国は作戦能力と相互信頼の両方を強化することができる。

第三に、Pax Silicaは、継続的な技術的対話と能力構築のためのプラットフォームとして機能し得る。人間と機械の連携(human–machine teaming)に関する共同訓練基準、共有レッドチーミング演習、そして協調的なインシデント学習メカニズムは、人材能力と監督体制の強化につながるだろう。こうした取り組みは、システムのテスト方法、オペレーターの訓練方法、フィードバックループが設計の見直しにどのように反映されるかといった「実施」に焦点を当てることで、国連レベルでの議論を補完するものとなる。

最後に、中堅国はPax Silicaにおける自らの立場を活用し、民間セクターの主体と直接関与することができる。軍事関連のAIの多くは産業界によって開発されており、最近の出来事は、これがもたらす影響力を浮き彫りにしている。Anthropicが自社モデルを米軍の標的選定や大規模監視に使用されることを許可しなかった結果、連邦政府による使用禁止措置や「サプライチェーン・リスク」の指定を受けた。それにもかかわらず、同社の「Claude」モデルは米国によるイランへの空爆の際に使用された。この事例は、国防総省が民間のAIシステムに深く依存している実態と、それらを完全に切り離すことがいかに困難であるかを示している。中堅国は、防衛関連AIに有意義な安全策を組み込むイニシアチブを支援することで、民間セクターで台頭しつつある規範を強化することができる。実用的な道筋の一つは、企業間のピア・ツー・ピア(P2P)対話を開催し、用語、リスク分類、運用上の安全策について自主的な合意形成を促すことである。共通の用語集と保証基準を確立すれば、政府間の関係が緊張している状況下であっても、主要な原則が収束していくだろう。

これらの一連の措置は、相互依存を基盤とした現実的なガバナンスの枠組みを形成することになるだろう。中堅国は、合意形成が困難な包括的な宣言や法的禁止措置を求めるのではなく、信頼された技術エコシステム内での影響力を活用して、保証基準、データ取り扱い慣行、ライフサイクルを通じた保護措置を形作ることができる。Pax Silicaは、米国の同盟国がまさにそのような影響力を行使する場を提供するものである。

こちらは2026年3月6日に英語で発表された論文の日本語訳です。