當一個 AI 模型被惡意利用來製造生物武器、導致數百人死亡時,開發它的公司該不該負責?

這個問題正在撕裂美國 AI 產業。Anthropic 公開反對一項由 OpenAI 背書的伊利諾州法案 SB 3444,該法案的核心條款極其激進:只要 AI 實驗室在自家網站上公佈安全框架,就能免除幾乎所有因 AI 系統造成大規模傷害的法律責任——包括大規模傷亡或超過 10 億美元的財產損失。

「免罪金牌」vs「安全優先」

Anthropic 政府關係負責人 Cesar Fernandez 在給《WIRED》的宣告中毫不掩飾地批評:

「好的透明立法應該確保公眾安全和企業問責,而不是提供一張逃避所有責任的免罪金牌。」

他表示 Anthropic 已在幕後遊說法案發起人、州參議員 Bill Cunningham 及其他伊利諾州議員,要求大幅修改或直接廢除該法案。

OpenAI 的立場截然相反。ChatGPT 的開發商認為 SB 3444 能在降低前沿 AI 系統嚴重風險的同時,「讓這項技術進入伊利諾州大大小小企業和民眾的手中」。OpenAI 發言人 Liz Bourgeois 表示,公司已與紐約和加州等州合作,建立所謂的「協調式」AI 監管方法,並希望這些州法最終能催生出全國性框架。

法案條款:自己寫規則就能免責?

SB 3444 最受爭議的設計是它的免責機制:AI 實驗室只需自行撰寫安全框架並公佈在官網上,就能獲得法律保護。這意味著,即使有人利用 AI 模型製造生物武器導致大量傷亡,開發該模型的公司也不需承擔責任——前提是它已經「貼了安全公告」。

非營利組織 Secure AI Project 的共同創辦人 Thomas Woodside 直指這是在拆除現有的法律防線:

「普通法下的責任機制早已存在,為 AI 公司採取合理措施預防可預見風險提供了強大的激勵。SB 3444 採取了極端步驟,幾乎消除了對嚴重傷害的法律追究。但削弱責任制度是個壞主意,因為在大多數州,這是目前對 AI 公司最重要的法律問責形式。」

簡單來說,這項法案不是在建立新規則,而是在拆除已有的護欄。

兩條路線:Anthropic 推審計,OpenAI 推自律

值得注意的是,Anthropic 並非只是在反對。它同時在伊利諾州力挺另一項法案 SB 3261,該法案要求前沿 AI 開發商制定公開的安全與兒童保護計畫,並由獨立第三方審計機構進行評估。如果透過,SB 3261 將成為全美最嚴格的 AI 安全法之一。

這揭示了兩家公司根本性的路線分歧:

OpenAI 路線Anthropic 路線
核心主張企業自律 + 政府背書外部監督 + 法律問責
安全機制自己寫規則、自己公佈第三方審計、獨立評估
責任歸屬公佈框架即可免責保留法律追究權利
支援法案SB 3444(免責)SB 3261(審計)

Anthropic 由一群 OpenAI 前員工在五年前創立,一直以來高調倡議 AI 安全,多次公開呼籲加強監管。這種立場讓它反覆成為川普政府的眼中釘。前白宮 AI 與加密貨幣沙皇 David Sacks 曾在社群媒體上抱怨,Anthropic 正在執行一套「基於恐嚇的精密監管俘獲策略」。

州長表態:不給科技巨頭免死金牌

伊利諾州長 JB Pritzker 的辦公室也發表了宣告,態度明確:

「州長不認為大型科技公司應該獲得全面保護,從而規避它們應該承擔的保護公共利益的責任。」

儘管 AI 政策專家認為 SB 3444 實際透過的機率很低,但這場爭論已經暴露出美國兩大 AI 領頭羊在監管路徑上的根本對立。

AI 監管的「伊利諾之戰」為何重要

這場爭議的核心問題只有一個:當 AI 技術強大到能造成不可逆的社會傷害時,開發者是否該享有法律豁免?

OpenAI 的答案是:只要你公佈了安全計畫,就可以。Anthropic 的答案是:公佈不夠,你必須接受外部審計,而且責任不能免除。伊利諾州長的答案更直接:不給免死金牌。

隨著 OpenAI 和 Anthropic 在全美各州加大遊說力度,它們各自推動的監管路線將直接影響數億人未來與 AI 共處的方式。在聯邦政府遲遲無法出臺統一的 AI 法規的情況下,各州正在成為 AI 治理的實驗場。

無論 SB 3444 最終是否透過,這場對決已經為全美 AI 監管的走向定下了基調。未來的 AI 法規,是偏向「企業自律」還是「外部監管」,答案可能就藏在伊利諾州議會的投票裡。

📰 本文資料來源 • 《WIRED》— "Anthropic Opposes the Extreme AI Liability Bill That OpenAI Backed"