
自国のAI企業を「敵」扱いする異例の措置
米国防総省がAnthropicを「国家安全保障に対するサプライチェーンリスク」に指定しました。AnthropicのDario Amodei CEOによると、同社が通知を受けたのは3月4日とのことです。米国企業が公にこの指定を受けるのは初めてとみられ、通常は外国の敵対勢力に関係する企業へ適用する類いの措置だそうです。The VergeやTechCrunchなどが報じています。
対立の発端は、国防総省がAnthropicに対し、同社のAI「Claude」を合法的な用途全般で利用できる条件を求めたことだといいます。Amodei氏は2月26日、2つの用途を明確に拒否しました。1つは「人間の介入を伴わない完全自律型兵器」への利用、もう1つは「米国民に対する大量監視」への転用です。いずれも民主主義の価値観に反し、現状の技術では安全に扱えないとAmodei氏は主張しています。
こうした経緯を経て、国防総省はAnthropicを正式にサプライチェーンリスクへ指定。今後、防衛請負業者などは国防総省関連の契約業務でAnthropicのモデルを使っていないことの証明を求められる見通しです。Anthropic側はこの指定に法的根拠がないとして、法廷で争う意向を示しています。
もっとも、移行期間が設定されているため軍によるClaude活用がすぐゼロになるわけではなさそうです。米軍の対イラン作戦でもClaude搭載の情報分析ツールが重要な役割を果たしています。Anthropic自身も、必要な移行が完了するまで許される範囲で国防・国家安全保障分野への支援を続ける考えを明らかにしています。
AI企業が自社技術の軍事利用にどこまで一線を引けるのか。国家安全保障とAI企業の倫理基準が真正面から衝突した象徴的な事例として、今後の行方に注目が集まります。




















