根據《華盛頓郵報》報導,美國法院近期裁定暫停美國國防部將人工智慧公司Anthropic標記為國家安全風險的命令。此舉對科技產業及政府之間的AI監管爭議,帶來重要影響。

這起爭議的起點,是國防部於2025年12月發布的行政命令,將AI公司Anthropic列為國家安全風險,並限制其與國防部合作。Anthropic方面則堅稱,此舉是美國前總統川普政府對其公開討論AI風險的報復性措施。

根據產業觀察機構AI Governance Institute的數據,Anthropic與國防部之間的爭議,始於2024年。當時,Anthropic公開警告AI技術可能對軍事應用造成的風險,引發政府不滿。雙方隨即展開一場關於AI發展與監管的激烈辯論。

「這是一場關於透明度與政府權力邊界的重要爭議。」AI倫理學者Dr. Sarah Lin在接受採訪時指出,「當AI技術被納入國家安全架構時,政府與企業之間的對話必須建立在信任與共同利益之上。」

根據法院文件顯示,法官指出國防部的命令缺乏足夠根據,並違反行政程序。這項裁決無疑對科技公司與政府的互動模式提供了新的法律依據。

Anthropic目前為美國最受關注的AI公司之一,其開發的Claude系列模型被廣泛應用於企業與學術研究。根據市場研究機構Statista的數據,Anthropic在全球AI市場佔有約5.3%的份額,與Google、Meta等科技巨頭並駕齊驅。

此事件也凸顯出政府對AI產業的監管趨勢。根據美國國會2025年頒布的《人工智慧責任法案》,各機構需對AI技術的透明度與安全性負責,這項判決無疑為法案的執行帶來新挑戰。

儘管法院暫時阻止國防部的行政命令,但雙方的爭議預計仍將持續。這不僅影響美國AI產業的未來發展,也可能影響國際間對AI技術的監管標準。

📰 本文資料來源 • Washington Post Tech • AI Governance Institute • Statista Market Research • U.S. Department of Defense