根據《GIGAZINE》報導,美國前總統特朗普時期所簽署、對AI企業Anthropic發出的「排除命令」,近日因假處分請求獲法院支持,執行已被暫停。這場由美國國防部與AI企業間的爭議,不僅牽涉到AI技術的國安運用,更凸顯了AI倫理與政府監管之間的緊張關係。
Anthropic是一家以開發高階AI模型Claude聞名的企業,其技術曾廣泛應用於美國國防部的AI戰略中。然而2026年初,國防部與Anthropic因理念差異產生嚴重對立,並以「供應鏈風險」為由,全面禁止政府部門使用Anthropic產品,甚至終止所有合作契約。此舉被視為對美國本土AI企業的懲罰性措施。
在國防部的說法中,Anthropic不願配合監管要求,例如每次緊急使用AI需事先取得授權,這被認為會妨礙國防作業效率。但Anthropic則反駁,該公司從未支持大規模監控或自動化武器開發,強調自身技術應用始終遵守美國法律與倫理標準。
加州聯邦地方法院法官Rita Lin在審理此案時指出,美國現行法律中並無支持「僅因對政府意見不同,便將企業視為敵對勢力」的條文。她指出國防部對Anthropic提出「供應鏈風險」的說法,缺乏合理證據支持,屬於「隨意且不當的決定」。
在聽證會中,Lin法官更質問國防部律師:「既然可以單方面終止合作,為何還要選擇『供應鏈風險』這種更過激的手段?」此言語引發廣泛討論,也凸顯出政府與企業在AI監管上的理念分歧。
Anthropic對法院裁決表示歡迎,並在聲明中強調,本案不僅對企業發展至關重要,更關係到用戶與合夥伙伴的權益。Anthropic表示,他們的目標是與政府建立更合作的關係,以推動「安全、可信任的AI技術」服務美國社會。
此案也對OpenAI造成影響。國防部與Anthropic決裂後,轉而與OpenAI簽下重大合作協議,引發部分公眾對OpenAI的不信任情緒。OpenAI CEO薩姆·阿爾特曼(Sam Altman)在內部會議中表示,他認為協助Anthropic解除「供應鏈風險」標籤對AI產業整體有利,但也承認與長期對手合作的決定「令人困惑」。
此判決不僅對Anthropic與國防部的關係產生關鍵影響,也為AI企業與政府之間的互動樹立了新的法律準則。專家指出,AI技術的應用已從純商業領域擴及國家安全層面,如何在創新與監管間取得平衡,將是未來科技政策的重要課題。
📰 本文資料來源 • GIGAZINE • CNBC • The Guardian • 政府文件:gov.uscourts.cand.465515.134.0.pdf





編輯觀點
AI企業與政府之間的監管與合作關係日益緊張,此案顯示法律對AI倫理的影響日增。