この問題についてコンパクトにまとめたNewYorkerの記事を基に解説したい。
・・・・・
Anthropic は OpenAI を離れた7人によって設立され、「安全性・厳密性・責任」を重視する姿勢を掲げてきた。しかし、同社のAI「Claude」を軍事利用したいトランプ政権(特に国防長官ヘグセス)との間で、倫理基準をめぐる深刻な対立が生じた。
政権側は AI を「軍事調達品の一つ」とみなし、購入した以上は自由に使えるべきだと考えていた。一方、Anthropic は AI の悪用や自律兵器化を防ぐための制限を契約に盛り込み、これを譲らなかった。
特に問題となったのは、Claude を使った大規模監視の可能性だった。政府は法律上の抜け穴を利用して膨大なデータを扱えるようになり、Claude によってそれが容易に実行されることを Amodei(Anthropic 共同創業者)は懸念していた。
皮肉なことに、政権は Anthropic を「サプライチェーン上の危険」として排除しようとしながら、同時にイラン戦争の標的選定に Claude を使用したとも報じられている。
Anthropic は「安全で責任あるAIこそ最も信頼できる」という考えだが、ペンタゴンは防衛分野はむしろ「制約の少ないAI」を求める考えであり、両者の価値観は根本的に噛み合わなかった。
・・・・・
この問題の核心は、AI を「兵器」とみるか、「自律性を持つ新種の技術」とみるかの価値観の衝突である。この対立は、単なる契約トラブルではなく、「AI をどう扱うべきか」という根源的な哲学の衝突といえる。
● Anthropic の立場:AI は“危険性を内包した新しい技術”であり、利用には倫理的制限が必要
– Claude は「自律的判断をし得る」ため、誤用すれば大規模監視・自律兵器化につながる
– だからこそ、軍事利用には明確なレッドライン(人間の最終判断、監視利用の制限など)が必要
– そもそも同社は「安全性・責任・厳密性」を企業理念として創業された背景がある
● トランプ政権(国防総省)の立場:AI は“軍事調達品の一つ”であり、制限は不要
– AI を「銃・戦車・ドローン」と同列の“調達品”とみなす
– 購入した以上、政府が自由に使う権利があると考える
– 追加の倫理的制限を企業が課すことに強い反発
– 特にヘグセス国防長官は「慎重すぎる」「傲慢だ」と批判
● 監視利用が最大の火種
– 米政府は法律上の定義を巧妙に使い、監視・収集の範囲を広く解釈してきた。しかし、従来は「人手不足」で限界があった
– Claude の登場で、膨大なデータを瞬時に解析できるようになる
– Anthropic社CEOのAmodei は「政府が法の抜け穴を最大限に悪用する」と危惧
● ペンタゴンはAnthropic を「サプライチェーンリスク」として排除しながら、実際には戦争で Claude を使用したと報じられる。 つまり、政府は Claude の能力を最も高く評価しつつ、制限だけを嫌った。
戦争継続に不可欠なAnthropicのAIをペンタゴンはどのような方便を使って使用し続けるのであろうか。衝突の行方に注目したい。
2026年3月15日 日曜日 晴れ
14:40 12℃ 気持ちの良い春の日です。