根據《Engadget》報導,美國馬里蘭州巴爾的摩市政府對 Elon Musk 旗下的 AI 公司 xAI 提起了訴訟——指控其 AI 聊天機器人 Grok 生成了關於巴爾的摩的虛假、貶損且可能構成誹謗的內容。這是美國第一起地方政府直接對 AI 公司提起 deepfake 和 AI 生成假訊息相關訴訟的案件。

Grok 做了什麼?

根據訴狀,巴爾的摩市政府的法律團隊記錄了多個案例,顯示 Grok 在使用者詢問關於巴爾的摩的資訊時,生成了不實的負面描述。這些描述包括誇大犯罪率的虛假統計、捏造的「城市衰敗」場景描寫、以及將巴爾的摩與不存在的負面事件連結在一起。

市政府主張,這些 AI 生成的虛假內容正在損害巴爾的摩的公共形象——影響旅遊業、企業投資意願和房地產價值。巴爾的摩近年投入了大量資源進行城市形象重建,而 AI 生成的負面內容正在「免費且大規模地」抵消這些努力。

法律上的突破

這起訴訟之所以被法律界密切關注,是因為它提出了一個此前沒有法律先例的問題:AI 生成的虛假內容,構成可訴的法律責任嗎?

傳統的誹謗法要求原告證明:被告發表了虛假的事實陳述、被告知道或應該知道這些陳述是虛假的、且造成了可衡量的損害。

當「被告」是一個 AI 系統時,這個框架面臨前所未有的挑戰。Grok 並不「知道」它在說假話——它只是基於訓練數據生成了統計上最可能的下一個詞。但巴爾的摩市政府的論點是:xAI 作為 Grok 的開發者和營運者,有責任確保其產品不會系統性地生成虛假和有害的內容。 如果一家汽車公司的產品有設計缺陷導致事故,公司需要承擔責任——AI 的「幻覺」是否應該被同等對待?

xAI 可能怎麼辯護?

xAI 最可能的辯護方向是援引《通訊端正法》第 230 條(Section 230)——這條法律保護網路平台不必為使用者生成的內容承擔責任。但這裡有一個關鍵差異:Grok 的內容不是「使用者生成」的——它是 AI 系統自己生成的。第 230 條是否適用於 AI 生成的內容,目前在法律上是一個未解的問題。

如果法院裁定第 230 條不適用於 AI 生成內容——這將是一個開天闢地的判決,可能迫使所有 AI 公司重新評估其模型的輸出控制和事實查核機制。

更廣泛的影響

巴爾的摩的訴訟如果成功,將開啟一條全新的法律路徑。不只是城市——企業、公眾人物、甚至個人,都可能循同樣的邏輯控告 AI 公司:「你的 AI 對我說了假話,而且造成了損害。」

AI 產業正在進入一個它最不擅長應對的領域——法律問責。而巴爾的摩 vs. xAI,可能只是第一場戰役。


📰 本文資料來源

  • Engadget:〈Baltimore sues xAI over Grok deepfakes〉
  • 法律背景:《通訊端正法》第 230 條;AI 幻覺與產品責任法的交叉議題