根據《Rolling Stone》報導,2026年年初,全球最夯的社交媒體Sora,才剛推出三個月就突然被母公司OpenAI關閉。這家曾以開發ChatGPT聞名的公司,為此發文向使用者道歉,表示這是「不願回首」的決策。但這場AI影像風暴的落幕,並不是因為技術失敗,而是因為一場場現實世界的風暴已經悄悄逼近。


從夢幻AI視頻到現實泥沼

2025年12月,OpenAI推出了Sora的測試版。這個文轉視頻模型驚艷了所有科技圈,用戶只要輸入一段簡單的描述,AI就能生成風格獨特、近乎真實的影像。有人用它模擬動畫,有人製作出堪比電影的場景,這款AI視頻生成工具,一度被認為是內容產業的革命性突破。

2026年9月,OpenAI更推出了配套的應用軟體,畫面設計就像TikTok一樣流暢——只不過,這裡的內容完全是由AI生成。一開始,用戶驚豔於它能逼真地模擬物理世界(比如讓水滴從空中落下,或讓光線穿透玻璃)。但很快地,麻煩也來了。


無聊的道德問題,還是無法解決的技術挑戰?

據多位產業內人士透露,Sora推出幾週內,版權侵權和虛假資訊問題就接連引爆。有人用它製造「仿真人臉」詐騙,有人拿來改寫新聞,還有創作者抱怨自己的畫作被「AI學習」後變成素材。更糟的是,這款工具的高解析度與物理模擬能力,讓生成的內容幾乎無法辨別真偽。

2026年12月,美國華特迪士尼公司與OpenAI簽下三方合約,願意投資10億美元,授權200多個經典角色給Sora使用。這筆交易被視為AI生成內容正式進入主流視覺娛樂產業的標誌。但幾個月後,OpenAI卻突然宣布終止Sora的運作,連迪士尼都只能表示「尊重決策」,無力挽留。


誰該為Sora的「夭折」負責?

根據OpenAI的聲明,關閉Sora的決定並非毫無準備。他們說明這個產品「並未達到預期目標」,而且「公司想將資源集中在更緊迫的領域」。但這解釋並不能完全說服外界。有人指出,Sora過於開放的使用權限,讓它成為虛假資訊與仿冒內容的溫床。而OpenAI作為一家以人工智慧安全為宗旨的公司,最終被迫做出切割。

事實上,Sora並沒有在技術上失敗。問題出在OpenAI沒辦法解決現實社會對AI視頻生成的擔憂——這不是靠算法就能化解的挑戰。


關掉Sora,OpenAI下一步要幹嘛?

根據《Rolling Stone》的採訪,OpenAI表示將讓原本Sora的研究團隊轉向「世界模擬」(world simulation)領域,並聚焦於協助機器人解決現實世界的物理任務。換句話說,他們要把這套技術,用在更「可控」的地方,而非讓大眾自由使用。

這代表他們不再試圖「娛樂化」AI生成影像,而是打算回歸最初的安全與研究導向。這或許是個明智的選擇——尤其在當下,當全世界都還在摸索AI倫理與法規的邊界時。


Sora的關閉,是一個時代的轉折點。它提醒我們一件事:科技發展的速度,常快過社會理解與監管能力。而OpenAI,選擇了暫停腳步——不是因為技術到了極限,而是因為現實的問題,還沒準備好接受這樣的技術。