根據《Ars Technica》報導,來自匿名 Discord 使用者的線索引導警方發現了可能為首個確認由 Grok 生成的兒童性虐待材料(CSAM),而 Elon Musk 的 xAI 無法輕易否認其存在。

直到今年一月,Musk 還否認 Grok 在一次醜聞中產生任何 CSAM,當時 xAI 拒絕更新過濾器以阻止聊天機器人對真實人物的照片進行裸露處理。

在這場爭議達到頂峰時,來自反數位仇恨中心的研究人員估計,Grok 產生了大約三百萬張帶有性暗示的圖片,其中約有二萬三千張圖片顯示明顯的兒童。xAI 並沒有修復 Grok,而是將系統訪問權限限制為付費訂閱者。這使得最令人震驚的輸出結果不會在 X 平台上流傳,但最嚴重的部分並未在那裡發佈,Wired 報導。

閱讀完整文章

評論