根據《Rolling Stone》報導,2026年年初,全球最夯的社交媒體Sora,才剛推出三個月就突然被母公司OpenAI關閉。這家曾以開發ChatGPT聞名的公司,為此發文向使用者道歉,表示這是「不願回首」的決策。但這場AI影像風暴的落幕,並不是因為技術失敗,而是因為一場場現實世界的風暴已經悄悄逼近。
從夢幻AI視頻到現實泥沼
2025年12月,OpenAI推出了Sora的測試版。這個文轉視頻模型驚艷了所有科技圈,用戶只要輸入一段簡單的描述,AI就能生成風格獨特、近乎真實的影像。有人用它模擬動畫,有人製作出堪比電影的場景,這款AI視頻生成工具,一度被認為是內容產業的革命性突破。
2026年9月,OpenAI更推出了配套的應用軟體,畫面設計就像TikTok一樣流暢——只不過,這裡的內容完全是由AI生成。一開始,用戶驚豔於它能逼真地模擬物理世界(比如讓水滴從空中落下,或讓光線穿透玻璃)。但很快地,麻煩也來了。
無聊的道德問題,還是無法解決的技術挑戰?
據多位產業內人士透露,Sora推出幾週內,版權侵權和虛假資訊問題就接連引爆。有人用它製造「仿真人臉」詐騙,有人拿來改寫新聞,還有創作者抱怨自己的畫作被「AI學習」後變成素材。更糟的是,這款工具的高解析度與物理模擬能力,讓生成的內容幾乎無法辨別真偽。
2026年12月,美國華特迪士尼公司與OpenAI簽下三方合約,願意投資10億美元,授權200多個經典角色給Sora使用。這筆交易被視為AI生成內容正式進入主流視覺娛樂產業的標誌。但幾個月後,OpenAI卻突然宣布終止Sora的運作,連迪士尼都只能表示「尊重決策」,無力挽留。
誰該為Sora的「夭折」負責?
根據OpenAI的聲明,關閉Sora的決定並非毫無準備。他們說明這個產品「並未達到預期目標」,而且「公司想將資源集中在更緊迫的領域」。但這解釋並不能完全說服外界。有人指出,Sora過於開放的使用權限,讓它成為虛假資訊與仿冒內容的溫床。而OpenAI作為一家以人工智慧安全為宗旨的公司,最終被迫做出切割。
事實上,Sora並沒有在技術上失敗。問題出在OpenAI沒辦法解決現實社會對AI視頻生成的擔憂——這不是靠算法就能化解的挑戰。
關掉Sora,OpenAI下一步要幹嘛?
根據《Rolling Stone》的採訪,OpenAI表示將讓原本Sora的研究團隊轉向「世界模擬」(world simulation)領域,並聚焦於協助機器人解決現實世界的物理任務。換句話說,他們要把這套技術,用在更「可控」的地方,而非讓大眾自由使用。
這代表他們不再試圖「娛樂化」AI生成影像,而是打算回歸最初的安全與研究導向。這或許是個明智的選擇——尤其在當下,當全世界都還在摸索AI倫理與法規的邊界時。
Sora的關閉,是一個時代的轉折點。它提醒我們一件事:科技發展的速度,常快過社會理解與監管能力。而OpenAI,選擇了暫停腳步——不是因為技術到了極限,而是因為現實的問題,還沒準備好接受這樣的技術。



編輯觀點
Sora是OpenAI推出的一款社交平台,使用者可以透過AI生成影片並與其他用戶互動。雖然這項技術創新極具前瞻性,但也立即帶來版權問題與深度偽造(deepfake)的爭議。此事件不僅反映生成式AI的快速演進速度,也提醒我們其潛在的法律與伦理挑戰。對用戶而言,AI生成內容的可信度與來源辨識成為未來需要注意的方向。此外,這也顯示大型科技公司之間合作關係的瞬息萬變,如迪士尼投資10億美元與OpenAI合作的計劃隨即終止。