
AI企業Anthropicのダリオ・アモデイCEOは2月26日、米国防総省(通称ペンタゴン、戦争省)が求めるAIモデル「Claude」の軍事利用に関する制約撤廃について、要求拒否を表明しました。CBS Newsなど複数の米メディアが伝えています。
Anthropicは2025年夏に国防総省と最大2億ドル規模の契約を結び、Claudeを国防総省の機密ネットワークへ導入してきたといいます。同社は「米国人への大規模監視」と「完全自律型兵器(人間の関与なしに致死的判断を下す用途)」という2つの利用を防ぐためのガードレールを、利用規定や契約文言として明確にするよう求めてきました。
ところがピート・ヘグセス国防長官は2月24日(火)の会談で、Claudeを「すべての合法的な目的」に利用できるよう要求したとのことです。ペンタゴン側は、米国人の大規模監視は違法であり、自律型兵器についても国防総省の既存方針で制限しているのだから、企業が追加の制約を課す必要はないという立場だそうです。
Anthropic側の見方は異なります。同社はペンタゴンが送付した修正契約について、大規模監視や自律型兵器へのClaude利用を防ぐ点で、実質的な進展がほぼなかったと反論。修正案は「セーフガードを恣意的に無効化できる法律用語の羅列」と評しています。
AnthropicのアモデイCEOは国防総省と米軍兵士への貢献を継続する意欲を見せつつも、2つのガードレールは死守したい構え。

ペンタゴンはAnthropicに対し、2月27日(金)東部時間午後5時1分を期限とする最後通告を突きつけており、応じなければ契約打ち切りに加え、同社を「サプライチェーンリスク」に指定する警告。指定が実行されれば国防総省の調達網から外れることになります。
ペンタゴン側は国防生産法(Defense Production Act)の発動をちらつかせたとも伝わっています。同法を使えばガードレール撤廃を事実上迫れるという見立てです。アモデイCEOはこれに対し、自社をサプライチェーンリスクに指定しておきながら国家安全保障に不可欠だと主張するのは矛盾していると批判。脅しには屈しない姿勢です。
国防生産法とは、ざっくり言うと「国の安全保障のためなら、政府が民間企業に生産や協力を命じられる」という米国の法律です。朝鮮戦争時代の1950年にできたもので、いわば政府が切れる最強カードのひとつ。ふだんは災害やパンデミックで物資を確保する場面で使われますが、今回はAI企業への圧力カードとして持ち出された格好です。
マーク・ワーナー上院議員はペンタゴンの姿勢に懸念を示し、AIの軍事利用にはより強固な法的枠組みが必要だと訴えています。
そもそもAnthropicは対中姿勢のかなり強硬な企業であり、米国の民主主義を脅かす米国民監視や危険な自律兵器を拒否しているのであって、米国政府や米国のAI覇権獲得には協力的な企業なので、米国政府がAIで今後何をしたいのか、意図を感じ取らざるを得ません。




















