根據《Popular Science》評論,Frank Herbert 的科幻經典《沙丘》(Dune)中有許多看似荒誕的設定——1,500英尺的巨型沙蟲、能彎曲時空的迷幻香料、一群優生學女巫。但這個1965年的小說系列中有一個核心設定,在2026年讀來卻越來越像是預言而非虛構:Butlerian Jihad(巴特勒聖戰)。
在《沙丘》的宇宙中,人類曾經創造出強大的人工智慧和「思考機器」(thinking machines),但最終爆發了一場全面戰爭來摧毀它們。戰後,人類社會制定了最高戒律:「汝不可製造模仿人類心智的機器」(Thou shalt not make a machine in the likeness of a human mind)。這個禁令塑造了《沙丘》整個宇宙的社會結構——沒有電腦,人類不得不培養「門塔特」(Mentat,人類電腦)來進行複雜計算。
Herbert 在1960年代構想這個設定時,電腦還只是佔滿整個房間的笨重機器。但他的擔憂不是技術能力本身——而是人類對「智能外包」的依賴會如何改變人類本身。他在1979年的訪談中明確說過:「機器的危險不是它們會叛變,而是我們會讓自己變得不需要思考。」
這個觀點在 ChatGPT、Claude、Gemini 時代聽起來格外刺耳。當學生開始用 AI 寫論文、律師用 AI 寫辯護詞、醫生用 AI 輔助診斷——我們確實正在經歷 Herbert 所警告的「認知外包」。差別在於,Herbert 筆下的人類在經歷了災難性的後果後做出了極端的選擇(禁止所有 AI),而我們正站在那個選擇的前方,不確定方向。
評論者指出,《沙丘》提供的不是一個具體的解決方案,而是一個正確的問題框架:重點不是「AI能做什麼」,而是「當我們不再需要自己做這些事時,我們會變成什麼」。
📰 本文資料來源 • 原始報導:Popular Science • 作品引用:Frank Herbert《Dune》(1965) 系列 • 核心概念:Butlerian Jihad、Mentat • Herbert 1979年訪談引述



編輯觀點
Herbert真正的預言不是「機器會反叛」,而是「人類會自願把思考的責任交出去」——這比任何末日場景都更令人不安。