根據《The Verge》報導,美國參議院的民主黨議員正在推動一項法案,試圖將 AI 公司 Anthropic(Claude 系列模型的開發者)自行制定的 AI 安全準則,從企業自律提升為具有法律約束力的聯邦規範。如果通過,這將是美國首個以特定 AI 公司的內部安全標準為藍本的聯邦立法。

Anthropic 的安全準則是什麼?

Anthropic 在 AI 產業中以「安全優先」的立場聞名。該公司發布了一系列公開的安全框架,核心包括:AI 安全等級(ASL)系統——根據模型能力的提升設定不同的安全等級,每個等級對應不同強度的安全措施和部署限制。紅線測試(red line evaluations)——在模型發布前進行系統性的風險測試,評估模型是否能被用於生物武器設計、網路攻擊或大規模虛假資訊等高風險場景。負責任擴展政策(Responsible Scaling Policy, RSP)——承諾當模型達到特定能力閾值時,自動觸發更嚴格的安全審查程序。

這些準則目前完全是 Anthropic 的自願行為——沒有法律要求他們這麼做,也沒有機制確保他們持續遵守。

為什麼要法制化?

推動法案的民主黨議員認為,企業自律有其根本限制。在商業壓力下,任何自願的安全承諾都可能被修改或放棄——尤其當競爭對手(如 OpenAI 或 Google DeepMind)選擇以更寬鬆的標準加速產品發布時。

法制化的目的是讓這些安全措施從「可以做但不必做」變成「必須做否則違法」。具體提案包括:要求所有超過特定規模的 AI 模型在公開發布前完成獨立的安全評估。建立聯邦層級的 AI 安全審查機構,負責監督和執行合規。對違規的 AI 公司施加罰款和限制措施。

業界反應分歧

根據公開報導,Anthropic 本身對法制化的態度是「有條件支持」——公司高層曾表示歡迎合理的監管框架,但擔心過於僵化的法規可能無法跟上技術的演進速度。

其他主要 AI 公司的反應更為保守。OpenAI 和 Google 在公開聲明中傾向支持「自律為主、法規為輔」的模式,而非將特定公司的內部準則直接立法。產業協會則擔心法制化可能抑制創新,並讓美國 AI 公司在與中國的競爭中處於不利地位。

這對 AI 產業意味著什麼?

這項法案能否通過國會仍是未知數——在當前的政治格局下,AI 監管在兩黨之間仍缺乏共識。但它發出的訊號很清楚:美國國會不打算永遠讓 AI 安全停留在「企業良心」的層次。

不論法案的最終命運如何,Anthropic 的安全準則已經從「一家公司的自律選擇」升級為「可能成為行業標準的法律藍本」——這本身就是一個重大的產業訊號。


📰 本文資料來源

  • The Verge:〈Senate Democrats are trying to 'codify' Anthropic's red lines for AI models〉
  • 背景參考:Anthropic Responsible Scaling Policy (RSP) 公開文件