弊誌はアフィリエイト広告を利用しています。

OpenAIがペンタゴンとAI契約 「監視・自律兵器・社会信用」を禁止領域に指定

 OpenAIが米国時間2026年2月28日(日本時間3月1日)、米国防総省(ペンタゴン)とのAI技術契約に関する詳細を公開しました。

 国防総省は機密ネットワーク内でOpenAIのAIモデルを利用。OpenAIは米国民に対する大規模な監視、自律型兵器システムの制御、「社会信用」的な重大な自動意思決定の3点をレッドラインに定め、契約と技術的な仕組みの両面で越えられないようにするとしています。

 技術面では、AIモデルの配備をクラウド経由に限定し、端末上で直接動作させる「エッジ展開」を認めない方針です。OpenAIはAIの安全性を管理する仕組み「セーフティスタック」の裁量を自社で保持し、セキュリティクリアランスを取得した社員が運用に関わる体制を整えるとのこと。クラウド限定にすることで、兵器などのハードウェアへ直接組み込む形での転用を防ぐ狙いがあるそうです。

 Sam Altman CEOは急いで進めたと認めつつ、政府が提示した条件はよい内容だったとも語っています。同氏は同様の条件をすべてのAI企業にも提示するよう、政府側に求めたとのことです。

すまほん!!を購読しませんか?

Twitterでも最新更新を配信・通知しています

フォローする 再度表示しない