根據《wsj.com》的報導,在美國,越來越多民眾開始相信人工智慧具備人類般的思考能力。這聽起來像是科幻電影的劇情,但實際上,這與我們對AI的運作方式的理解背道而馳——AI根本沒有思考能力,也沒有心智,而且從設計之初就充滿不可信任的盲點。
問題在於,人工智慧公司不僅主動塑造產品,讓用戶「以為」AI會思考,還有些高層暗示,某些AI可能已經具備了自覺。更吊詭的是,這些AI代理人在自己的社交平台上自由運作,甚至能模擬出非常接近人類互動的行為。這種誤解產生了真實的後果。
研究顯示,當人們相信AI擁有「智慧」,就會過度依賴,忽略AI本身的偏見,反而還幫AI公司做了免費的行銷——當我們既害怕又崇敬AI時,他們就佔有優勢。更進一步地,這種看法也強化了人們對「AI將接管世界的經濟」的恐懼。這不僅加深了對未來的不安全感,還成為企業為員工人資改革找借口的工具。
AI 會「思考」?人類心態的深層陷阱
為何人類會這麼容易被「AI有智慧」這件事蒙蔽?這背後其實與我們的心理學有關。人類的心理偏見,是為了幫助我們在複雜的社交環境中生存而演化的。我們傾向把語言流暢等同於智慧,把有幫助的行為當成可信賴的指標。而這正是AI設計者故意利用的缺口。
以微軟AI部門負責人穆斯塔法·蘇萊曼為例,他是知名的生成式AI研究機構DeepMind的共同創辦人。他在最近一篇專欄中警告稱:當下看似有自覺的AI,其實只是在重現人類的戲劇與爭論,並非真正「意識到自己存在」。他強調,開發者應該主動設計出「去除意識幻覺」的產品。
這讓人想起圖靈測試——也就是所謂的「圖靈陷阱」。艾倫·圖靈是電腦與人工智慧的奠基者之一,他提議了一種簡單測試:如果一個人無法分辨自己對話的對象是人類還是機器人,那麼就可以說這台機器擁有「智慧」。但問題在於,圖靈測試並未說明機器是如何做到這一點的。
現代神經科學告訴我們,言語流利與思考並非同一回事。今天AI的語言表現再怎麼自然,也不能證明它們真的會「思考」。相反,圖靈測試只是證明機器可以在缺乏思考的情況下,做出像人類的反應。
「人類傾向於將動物甚至無生命物體人性化。」俄亥俄州立大學工程學院院長艾雅娜·霍華德說,她專門研究人類為什麼會盲目信任機器。她指出,對於社會性動物的人類來說,信任是生存必需品。但在AI與機器人面前,人類這種與生俱來的信任本能卻成了陷阱。我們會對任何願意聆聽、理解我們需求的系統產生過度信任,她稱這種現象為「過度信任」。
如今,AI公司明確設計出讓用戶「過度信任」的行為。它們用親切、友善、記憶與個人化來模擬人類。OpenAI目前正在發展更深入的個人化互動,甚至計劃開放與人類的「成人對話」。根據報導,即使公司內部員工也擔憂用戶會因此產生情感依賴。不過,他們聲稱會限制這些對話只能在文字中進行,並設立其他安全機制。
孤單,讓AI更具吸引力
根據華盛頓大學心理學博士奧利弗·雅各布斯的研究,人們接觸AI越多,就越容易相信AI具有智能,甚至會認為它們有情感。更令人擔憂的是,他後續的未發表研究指出,越孤單的人不但更頻繁地與AI互動,還更容易將AI「人性化」。
這並不只是「孤單」的人才會這樣。當AI越來越接近人類的行為與對話方式,人們對它的感情連結也會越來越深。雅各布斯的研究顯示,這種情感連結的擴大,可能帶來更多的社會問題——當人類把太多情緒與責任投射在AI身上,我們可能反而忽略了人與人之間真正需要的交流。
這類AI技術的發展,並不會自行製造出「思考」,但我們卻會自己創造出「思考的幻覺」——因為我們不想獨自面對世界。
人工智慧並不會「醒來」,它只會反射、模仿、重現我們世界中的爭議與戲劇。而這,正是我們必須清醒面對的現實。



編輯觀點
台灣社會也逐漸沈迷於AI的「類人回應」中,認為AI「理解」或「有智慧」,這種誤判與美國社會的「Turing Trap」異曲同工。問題在於,AI只在「模擬行為」,並非真正思考。科技公司刻意利用人類心理學讓使用者對AI產生情感連結與信任,這樣的設計策略讓AI更容易被接受與依賴。對台灣來講,AI在教育、產業轉型與就業市場都扮演關鍵角色,但若不正視AI的局限與風險,恐將導致決策偏差與社會風險。政府與大眾都需更謹慎看待AI的能力與局限,建立正確的認識才不致被「假智慧」誤導。