當一個 AI 模型被惡意利用來製造生物武器、導致數百人死亡時,開發它的公司該不該負責?
這個問題正在撕裂美國 AI 產業。Anthropic 公開反對一項由 OpenAI 背書的伊利諾州法案 SB 3444,該法案的核心條款極其激進:只要 AI 實驗室在自家網站上公佈安全框架,就能免除幾乎所有因 AI 系統造成大規模傷害的法律責任——包括大規模傷亡或超過 10 億美元的財產損失。
「免罪金牌」vs「安全優先」
Anthropic 政府關係負責人 Cesar Fernandez 在給《WIRED》的宣告中毫不掩飾地批評:
「好的透明立法應該確保公眾安全和企業問責,而不是提供一張逃避所有責任的免罪金牌。」
他表示 Anthropic 已在幕後遊說法案發起人、州參議員 Bill Cunningham 及其他伊利諾州議員,要求大幅修改或直接廢除該法案。
OpenAI 的立場截然相反。ChatGPT 的開發商認為 SB 3444 能在降低前沿 AI 系統嚴重風險的同時,「讓這項技術進入伊利諾州大大小小企業和民眾的手中」。OpenAI 發言人 Liz Bourgeois 表示,公司已與紐約和加州等州合作,建立所謂的「協調式」AI 監管方法,並希望這些州法最終能催生出全國性框架。
法案條款:自己寫規則就能免責?
SB 3444 最受爭議的設計是它的免責機制:AI 實驗室只需自行撰寫安全框架並公佈在官網上,就能獲得法律保護。這意味著,即使有人利用 AI 模型製造生物武器導致大量傷亡,開發該模型的公司也不需承擔責任——前提是它已經「貼了安全公告」。
非營利組織 Secure AI Project 的共同創辦人 Thomas Woodside 直指這是在拆除現有的法律防線:
「普通法下的責任機制早已存在,為 AI 公司採取合理措施預防可預見風險提供了強大的激勵。SB 3444 採取了極端步驟,幾乎消除了對嚴重傷害的法律追究。但削弱責任制度是個壞主意,因為在大多數州,這是目前對 AI 公司最重要的法律問責形式。」
簡單來說,這項法案不是在建立新規則,而是在拆除已有的護欄。
兩條路線:Anthropic 推審計,OpenAI 推自律
值得注意的是,Anthropic 並非只是在反對。它同時在伊利諾州力挺另一項法案 SB 3261,該法案要求前沿 AI 開發商制定公開的安全與兒童保護計畫,並由獨立第三方審計機構進行評估。如果透過,SB 3261 將成為全美最嚴格的 AI 安全法之一。
這揭示了兩家公司根本性的路線分歧:
| OpenAI 路線 | Anthropic 路線 | |
|---|---|---|
| 核心主張 | 企業自律 + 政府背書 | 外部監督 + 法律問責 |
| 安全機制 | 自己寫規則、自己公佈 | 第三方審計、獨立評估 |
| 責任歸屬 | 公佈框架即可免責 | 保留法律追究權利 |
| 支援法案 | SB 3444(免責) | SB 3261(審計) |
Anthropic 由一群 OpenAI 前員工在五年前創立,一直以來高調倡議 AI 安全,多次公開呼籲加強監管。這種立場讓它反覆成為川普政府的眼中釘。前白宮 AI 與加密貨幣沙皇 David Sacks 曾在社群媒體上抱怨,Anthropic 正在執行一套「基於恐嚇的精密監管俘獲策略」。
州長表態:不給科技巨頭免死金牌
伊利諾州長 JB Pritzker 的辦公室也發表了宣告,態度明確:
「州長不認為大型科技公司應該獲得全面保護,從而規避它們應該承擔的保護公共利益的責任。」
儘管 AI 政策專家認為 SB 3444 實際透過的機率很低,但這場爭論已經暴露出美國兩大 AI 領頭羊在監管路徑上的根本對立。
AI 監管的「伊利諾之戰」為何重要
這場爭議的核心問題只有一個:當 AI 技術強大到能造成不可逆的社會傷害時,開發者是否該享有法律豁免?
OpenAI 的答案是:只要你公佈了安全計畫,就可以。Anthropic 的答案是:公佈不夠,你必須接受外部審計,而且責任不能免除。伊利諾州長的答案更直接:不給免死金牌。
隨著 OpenAI 和 Anthropic 在全美各州加大遊說力度,它們各自推動的監管路線將直接影響數億人未來與 AI 共處的方式。在聯邦政府遲遲無法出臺統一的 AI 法規的情況下,各州正在成為 AI 治理的實驗場。
無論 SB 3444 最終是否透過,這場對決已經為全美 AI 監管的走向定下了基調。未來的 AI 法規,是偏向「企業自律」還是「外部監管」,答案可能就藏在伊利諾州議會的投票裡。
📰 本文資料來源 • 《WIRED》— "Anthropic Opposes the Extreme AI Liability Bill That OpenAI Backed"






編輯觀點
這場 Anthropic 與 OpenAI 的對決,本質上是 AI 產業兩種商業模型的碰撞。OpenAI 走的是「快速擴張、事後補救」路線,需要盡可能減少法律阻力來加速商業化;Anthropic 走的是「安全品牌」路線,越多監管反而越能凸顯其產品的差異化優勢。理解了這層商業邏輯,就不難看懂雙方在立法戰場上的選擇。 對臺灣科技業而言,美國各州的 AI 監管實驗值得密切關注。臺灣目前尚未有專門的 AI 責任法規,但隨著臺灣企業越來越多地使用或開發 AI 系統,類似的法律框架遲早會被提上議程。伊利諾州的這場爭論,提供了一個極好的參照:在「促進創新」和「保障公眾安全」之間,立法者該如何拿捏?