Hegseth最後通告の全貌 ── 「30日以内の全用途展開」要求
2026年2月24日、米国防総省のPete Hegseth国防長官がAnthropicのDario Amodei CEOに対し、事実上の最後通告を突きつけた。要求は明快かつ苛烈である。「Claude AIの全面的な軍事利用を認めよ。ガードレールを撤廃し、国防総省が適切と判断するすべての合法的用途(all lawful uses)に供せよ。期限は2月28日金曜日、午後5時01分」。この期限に応じなければ、Anthropicを「サプライチェーンリスク」に指定し、国防生産法(Defense Production Act: DPA)を発動する可能性があると警告した。
この通告は突発的な出来事ではない。2026年1月3日、米軍がベネズエラの首都カラカスでMaduro大統領を拘束した作戦において、Palantir経由でClaudeが機密ネットワーク上で使用されたことが2月中旬にAxiosやWall Street Journalの報道で明らかになった。Anthropic社員がPalantir側に「Claudeがどのように使われたのか」を問い合わせたとされ、同社経営陣が配備の詳細を十分に把握していなかった可能性が浮上した。国防総省はこの成功事例を根拠に、AI利用の制限撤廃を求める圧力を一気に強めたのである。
筆者はAIガバナンスの構造的ギャップを分析した以前の記事で、企業のAI投資意欲と実際のガバナンス整備の乖離を指摘した。今回の事態は、その乖離が民間企業と国家権力の間で地政学的な断層線として顕在化した構造的事例である。本記事では国際政治の視点から、この対立の構造、各アクターの力学、そしてグローバルなAIガバナンス秩序への影響を分析する。
Anthropicの2つのレッドライン ── 譲れない倫理的境界
Hegsethの要求に対し、Anthropicは「建設的な対話を継続する」との声明を発表しつつも、2つの根本的なレッドラインを堅持している。第一に、米国市民に対する大規模監視(mass domestic surveillance)への利用禁止。第二に、人間の監督を欠いた完全自律型兵器システムへの利用禁止である。
Amodei CEOは会談後の声明で「国防総省の任務を引き続き支援するために、我々のモデルが信頼性をもって責任ある形で実行できることと整合する利用ポリシーについて、誠意ある議論を継続した」と述べた。この慎重な外交的表現の裏にある核心は、「AIモデルは自律的な殺傷判断を下せるほど信頼性が高くない」というAnthropicの技術的確信である。同社は、現在のLLM技術が確率的システムであり、プロンプトインジェクション等の構造的脆弱性を完全に解消できないことを熟知している。自律兵器への適用は、技術的限界を無視した政策的暴走であるとの立場だ。
さらに重要なのは、大規模監視に関する規制の空白である。2026年2月時点で、AIを用いた大規模監視を包括的に規制する米国連邦法は存在しない。Anthropicの立場は、法的規制が存在しないからこそ、企業が自主的にレッドラインを引く必要があるという論理に基づく。これは同社の設立理念──OpenAIから離脱したAmodei兄弟らが「AI安全性を最優先する組織」として2021年に創業した──と直結する哲学的立場でもある。
しかし、国際政治の力学において、企業の倫理的自律性は主権国家の安全保障上の利益に対してどこまで持続可能なのか。これが本事案の核心的問いである。
競合他社の屈服 ── 「全員が降りた」後のAnthropicの孤立
Anthropicの孤立は、競合他社がすでに国防総省の要求に応じた事実によって鮮明になっている。2025年夏、国防総省はAnthropic、OpenAI、Google(Gemini)、xAI(Grok)の4社に対し、それぞれ最大2億ドル規模の契約を交付した。このうち3社──OpenAI、Google、xAI──は、国防総省が求める「すべての合法的用途」条項を受け入れ、通常の利用制限を解除した。
Axiosの2026年2月19日付報道によれば、OpenAIのChatGPT、GoogleのGemini、xAIのGrokはすでに非機密ネットワーク上で利用可能であり、「通常の安全措置を契約の一環として解除している」。xAIのGrokに至っては最高機密(classified)環境への配備にも同意し、Claude AIと並ぶ形で国防情報システム局(DISA)Impact Level 6(最高機密レベル)のネットワークで稼働している。
この構図は、ゲーム理論における「チキンゲーム」の古典的パターンを呈している。4社のうち3社がすでにハンドルを切った(制限を解除した)状況で、唯一直進し続けるAnthropicは、孤立と引き換えに倫理的立場を守るか、あるいは経済的・法的圧力に屈するかの二択を迫られている。
国際政治の文脈でこの現象を分析すると、ここには「安全保障のジレンマ」の民間版ともいうべき構造が存在する。Anthropicが制限を維持すれば、国防総省は同社を排除して他社に依存するだけであり、Claudeの軍事利用は──Anthropicの意図に反して──Palantir経由ですでに実現している。つまり、Anthropicの倫理的スタンスは、軍事利用そのものを阻止する効果を持たず、むしろ「自社の関与と監督の余地」を放棄する結果をもたらしかねない。これは核不拡散における「一方的軍縮」の逆説と類似する構造である。
冷戦時代の法律と「サプライチェーンリスク」指定の地政学的含意
Hegsethが持ち出した2つの法的武器──国防生産法と「サプライチェーンリスク」指定──は、いずれも冷戦期に起源を持つ国家安全保障上の手段である。
国防生産法(DPA)は1950年の朝鮮戦争時に制定され、大統領に対し、国家安全保障に必要な物資の生産を民間企業に強制する権限を付与する。通常は緊急事態時に発動されるが、民間テクノロジー企業に対して強制力をもって適用された前例はほぼない。COVID-19パンデミック時のマスク・人工呼吸器増産命令が直近の適用例だが、AI企業の倫理方針を覆すために用いるのは全く異質の文脈である。
「サプライチェーンリスク」指定は、通常ロシアや中国の国家安全保障上の脅威と見なされる企業(Kaspersky、Huawei等)に適用される措置である。この指定を受ければ、国防総省のすべての契約企業がAnthropicの製品を使用することを禁じられ、その影響は軍事契約にとどまらず、金融・医療・エンタープライズIT領域にまで波及する。ある分析者はこれを「事実上の政府ブラックリスト掲載」と表現した。
この脅迫の地政学的含意は深刻である。米国政府が自国のAI企業に対し、通常は敵対国企業に向けられる制裁ツールを突きつけるという前例が確立されれば、AI産業全体に萎縮効果(chilling effect)をもたらす。筆者はセキュリティ戦略の策定に携わった経験から、セキュリティ戦略はビジネスの制約を理解した上でないと絵に描いた餅になることを痛感してきた。同様に、AI倫理方針も国家権力の現実的な強制手段を計算に入れなければ、持続可能な戦略とはなり得ない。Anthropicの倫理的レッドラインは崇高だが、DPAという「核オプション」に対する抗堪性を持つかどうかは別の問題である。
Palantirの中間地帯 ── 機密ネットワーク配備の構造的矛盾
この対立の中心に位置するのが、軍事AI基盤の中核を担うPalantir Technologiesである。同社のArtificial Intelligence Platform(AIP)はDISA Impact Level 6認定を取得し、最高機密ネットワーク上でLLMを運用するインフラを提供している。Anthropicの Claudeは、2024年後半に機密ネットワーク内で稼働した最初のLLMとして配備された実績を持つ。
Palantirの位置づけは「板挟み」と表現されている。Fast Companyの報道によれば、Anthropicが「サプライチェーンリスク」に指定された場合、PalantirはClaudeとの連携を強制的に終了させられ、最も重要なAIパートナーの一つを失うことになる。しかし同時に、Palantirの公開デモでは、AIが東欧の敵対勢力の動きを検知し、偵察手段を提案し、ドローン配備を推奨する能力がすでに実証されている。
ここに構造的矛盾がある。Anthropicは「人間の監督なき自律兵器への利用」を禁じているが、Palantirの機密ネットワーク内でClaudeが実際にどのように使用されているかを完全に監視する手段を持たない。Maduro作戦での使用が経営陣に十分に伝わっていなかった事実は、この監視の限界を露呈している。企業の倫理ポリシーは、展開先が機密環境である限り、その遵守を検証する手段が構造的に制約されるのである。
この問題は、2026年8月に完全施行されるEU AI Actの文脈でも重要な先例となる。EU AI Actは高リスクAIシステムに対する透明性義務を課すが、軍事・安全保障領域は適用除外となっている。つまり、最もリスクの高いAI利用が、最も監視の弱い環境で行われるという逆説がグローバルに構造化されつつある。
AIベンダーと軍事契約の新構造 ── 冷戦型軍産複合体のAI版
今回の事態は、AIベンダーと国防総省の関係が冷戦型軍産複合体の新しい形態へと変質していることを示している。かつてのLockheed Martin、Raytheon、Northrop Grummanに代わり、OpenAI、Google、Anthropic、xAIが「AIの武器商人(arms dealers of intelligence)」としての役割を──自覚の有無にかかわらず──引き受けつつある。
この構造変化の核心は、国防総省が戦略的に「ベンダーの多様化」を進めている点にある。4社への並行契約は、単一ベンダーへの依存リスクを回避すると同時に、企業間の競争原理を利用して制限緩和の圧力を最大化する合理的戦略である。1社が倫理的理由で離脱しても、残る3社で機能を代替できるため、Anthropicの交渉力は構造的に弱体化する。
国防総省の論理は「合法的用途の判断は国防総省が行うべきであり、民間企業が一方的に軍事利用の範囲を制限するのは民主的ではない」というものである。この論理には一定の正当性がある。文民統制(civilian control)の原則に基づけば、軍事力の行使範囲は選挙で選ばれた政府の判断事項であり、一企業のCEOが決定すべきではないという議論は成立する。
しかし、Lawfareの分析が指摘するように、本来この判断を担うべきは国防総省でもAnthropicでもなく、議会(Congress)である。軍事AIの利用範囲に関する包括的な立法が存在しない現状では、行政府と民間企業の二者間交渉で軍事AIの倫理的境界が決定されるという、民主的正当性を欠いた構造が固定化されるリスクがある。
筆者はAI教育に携わる立場から、AI倫理の問題は技術の問題ではなく、教える側──すなわち基準を設定する側──のリテラシー標準化の問題であることを実感してきた。軍事AIの利用基準も同様に、技術的限界と政治的判断の双方を理解した上で、立法府が包括的な枠組みを設定すべき問題である。行政府による強制や企業の自主規制だけでは、持続可能な秩序は構築できない。
グローバルAIガバナンスへの波及 ── 多国間秩序の試金石
この対立の帰結は、米国内にとどまらずグローバルなAIガバナンス秩序に深刻な影響を及ぼす。
国連の枠組みへの打撃: 国連特定通常兵器使用禁止制限条約(CCW)は2026年11月に第7回検討会議を予定しており、120カ国以上の支持を得た致死性自律兵器システム(LAWS)に関する規制言語の最終化が議題となる。米国が国内で自律兵器向けAIの制限撤廃を企業に強制する姿勢を鮮明にすれば、多国間交渉における米国の信頼性は毀損される。中国やロシアが「米国も無制限に自律兵器AIを推進している」と主張する口実を与えることになり、規制交渉全体が停滞するリスクがある。
同盟国への影響: AUKUS(米英豪安全保障協力)やNATOのAI戦略は、「責任あるAI利用」を前提として構築されている。米国が自国企業に対してAI倫理の放棄を強制する前例が確立されれば、同盟国は米国製AI技術への依存に対してリスク再評価を迫られる。特にEUは、2026年8月のAI Act完全施行を控え、米国との技術主権の対立を深める可能性がある。
敵対国の戦略的利益: 中国の軍民融合(Military-Civil Fusion)戦略は、民間AI企業と軍事利用の間に西側が設ける「倫理的ファイアウォール」を競争上の足枷と見なしてきた。米国がそのファイアウォールを自ら崩壊させるのであれば、中国にとっては「AI軍事利用に関する西側の道徳的優位性」という外交カードが無効化されることを意味する。
複数のソースが指摘するように、この紛争は「シリコンバレーが国家安全保障クライアントにAIを提供する条件の先例を、ほぼ確実に設定する」ものであり、「AIと政府の関係性について、グローバルに持続的な先例を確立する」ことになる。
AIの軍事利用を巡る国際規範の形成は、核兵器の時代と同様に、技術的能力と政治的意思のせめぎ合いの中で進む。AIが自律的に脆弱性を発見する能力を実証している現在、AIの軍事転用可能性はもはや仮説ではなく現実であり、その統制は冷戦期の核軍備管理に匹敵する地政学的重要性を帯びている。
構造的分析 ── 「倫理か、生存か」は偽の二項対立
最後に、この対立を構造的に整理する。国防総省の要求とAnthropicの拒否は、表面的には「国家安全保障vs企業倫理」の二項対立に見えるが、実態はより複雑な多層構造を持つ。
第一層: 技術的限界。現在のLLMは確率的システムであり、ハルシネーション、プロンプトインジェクション、文脈の誤解は根本的に排除できない。自律兵器への適用は、技術的に未成熟な段階での政策的暴走であるというAnthropicの主張には合理性がある。
第二層: 法的空白。AIの軍事利用に関する包括的な連邦法が存在しないため、行政府と民間企業の二者間交渉で事実上の規範が形成されている。議会の不作為が、この歪んだ構造を温存している。
第三層: 地政学的競争。中国、ロシアとのAI軍事競争は、米国にとって「倫理的制約は許容できない遅延要因」と映る。Hegsethの「中国よりも迅速かつ効果的にAIを軍事に統合する」という戦略目標は、時間的圧力の中での意思決定を正当化する論理を提供する。
第四層: 市場構造。4社並行契約による「競争的入札」構造は、個別企業の倫理的スタンスを市場原理によって無力化する設計になっている。1社が離脱しても3社が代替するため、倫理的企業は競争上の不利益を一方的に負う。
真の解決策は、これら4層すべてに同時に対応する枠組みの構築にある。技術的成熟度の客観的評価基準、議会による包括立法、国際的な軍事AI規範の合意形成、そして市場インセンティブの再設計──これらが欠落したまま、行政府の圧力と企業の自主規制だけに依存する現状は、持続可能な均衡とはいえない。
2月28日の期限が過ぎた後に何が起きるかは、2026年のAIガバナンスにおける最も重要な転換点の一つとなるだろう。Anthropicが屈するか、国防総省がDPAを発動するか、あるいは議会が介入するか──その帰結は、AIと国家権力の関係性を今後数十年にわたって規定することになる。
FAQ
Hegseth国防長官はAnthropicに具体的に何を要求したのか?
2026年2月24日の会談で、HegsethはAmodei CEOに対し、Claude AIの全面的な軍事利用を認め、「すべての合法的用途(all lawful uses)」にガードレールなしで供することを要求した。期限は2月28日午後5時01分とされ、応じなければ「サプライチェーンリスク」指定と国防生産法の発動を示唆した。
「サプライチェーンリスク」指定を受けるとAnthropicはどうなるのか?
通常、ロシアや中国の脅威企業に適用される措置で、国防総省の全契約企業がAnthropic製品の使用を禁じられる。影響は軍事契約にとどまらず、金融、医療、エンタープライズIT領域にも波及し、事実上の政府ブラックリスト掲載となる。
OpenAIやGoogleはなぜ国防総省の要求に応じたのか?
国防総省は2025年夏に4社へ各最大2億ドル規模の契約を交付した。OpenAI、Google、xAIの3社は「すべての合法的用途」条項を受け入れ、通常のAI利用制限を解除した。市場競争の圧力と巨額の政府契約が、倫理的懸念を上回ったと分析される。
Anthropicの2つのレッドラインとは何か?
第一に、米国市民に対する大規模な国内監視への利用禁止。第二に、人間の監督を欠いた完全自律型兵器システムへの利用禁止。いずれも同社の設立理念であるAI安全性の最優先に根ざしており、Anthropicは「譲歩する計画はない」とされている。
この対立は日本のAI政策にどのような影響を与えるか?
日本は防衛装備移転三原則の下でAIの軍事利用に慎重な姿勢を取ってきたが、日米同盟の文脈で米国製AI技術への依存を深めている。米国が自国企業にAI倫理の放棄を強制する前例が確立されれば、日本も米国製AIの軍事利用に関するリスク再評価を迫られる可能性がある。
参考文献
- Hegseth gives Anthropic until Friday to back down on AI safeguards — Axios, 2026年2月24日
- Hegseth warns Anthropic to let military use company's AI tech as it sees fit — NPR, 2026年2月24日
- Pentagon-Anthropic battle pushes other AI labs into major dilemma — Axios, 2026年2月19日
- Pentagon used Anthropic's Claude during Maduro raid — Axios, 2026年2月13日
- The Pentagon wants fewer AI limits. Anthropic doesn't. — Fast Company, 2026年2月
- Palantir partnership is at heart of Anthropic, Pentagon rift — Semafor, 2026年2月17日
- Congress—Not the Pentagon or Anthropic—Should Set Military AI Rules — Lawfare, 2026年2月
- Anthropic's safety-first AI collides with the Pentagon — Scientific American, 2026年2月



