根據《Wired》報導,一位聯邦法官在審理一起涉及美國國防部和 AI 公司 Anthropic 的法律案件時,做出了一個罕見且措辭強烈的表態:他形容五角大廈的某些行為是**「試圖削弱」(attempt to cripple)**Anthropic 的運作能力,並稱這種做法「令人不安」(troubling)。
案件的背景
根據報導,這起案件的核心涉及國防採購流程和 AI 安全標準之間的衝突。具體的細節仍在保密和訴訟進行中,但已公開的資訊顯示:
五角大廈在評估 AI 供應商時,對 Anthropic 自行設定的安全限制(包括其公開的 Responsible Scaling Policy 和 AI 安全等級系統)提出了異議——認為這些限制不必要地約束了 AI 系統在軍事場景中的應用能力。
更具體地說,國防部可能要求 Anthropic 為軍方提供「去除了某些安全限制」的 AI 模型版本——而 Anthropic 拒絕了。
法官為什麼說「令人不安」?
法官的措辭在聯邦法律訴訟中是非常罕見的強度。「試圖削弱」(attempt to cripple)暗示法官認為五角大廈的行為不只是「正常的採購談判」——而是帶有某種程度的報復性或懲罰性意圖。
根據《Wired》的分析,法官的關注點可能在於:如果國防部因為一家 AI 公司堅持自己的安全標準,就在採購流程中對該公司施加不利待遇——這實際上是在懲罰「對 AI 安全最負責任的公司」,同時獎勵那些願意為了拿到合約而降低安全標準的競爭者。
這創造了一個極其危險的激勵結構:在 AI 安全上做得越好的公司,在軍方採購中反而越吃虧。
AI 安全 vs. 國防需求
這起案件觸及了 AI 產業中一個正在升溫的根本性衝突。
一方面,國防部是全球最大的技術採購者——它需要最先進的 AI 能力來維持軍事優勢。在跟中國的 AI 軍備競賽中,任何「自我限制」都可能被視為戰略風險。
另一方面,Anthropic 這類公司的存在理由就是設定 AI 不該做的事的邊界。Anthropic 的創辦人 Dario Amodei 多次公開表示,某些 AI 能力——特別是在生物武器設計、大規模監控和自主武器系統方面——需要有明確的紅線。
這兩個立場不可能完全調和。問題只在於:紅線畫在哪裡?由誰來畫?
更廣泛的影響
如果法官最終裁定五角大廈的行為確實構成了對 Anthropic 的不當打壓,它將確立一個重要的法律先例:AI 公司有權設定和維持自己的安全標準,即使這些標準與最大客戶(美國政府)的需求衝突。 這對整個 AI 產業的治理格局都有深遠影響。
當全球最強大的軍事機構和 AI 安全的最強倡導者在法庭上對峙——賭注不只是一紙合約,而是 AI 的未來將被誰的規則定義。
📰 本文資料來源
- Wired:〈Pentagon's 'Attempt to Cripple' Anthropic Is Troubling, Judge Says〉
- 背景參考:Anthropic Responsible Scaling Policy (RSP);美國國防部 AI 採購政策



編輯觀點
這起案件揭露了一個日益尖銳的矛盾:美國國防部希望利用最先進的AI技術,但同時對AI公司(特別是Anthropic這種強調安全限制的公司)設定的使用限制感到不滿。五角大廈想要的是「能力最大化、限制最小化」的AI工具——而Anthropic的品牌定位恰恰是「安全第一,能力第二」。這個衝突不會消失。