根據《ナゾロジー》報導,美國科爾內爾大學(Cornell University)的研究團隊發現,AI提供的文字預測功能,不僅是打字幫手,還可能在不經意間改變用戶對社會爭議議題的態度。
傳統的文字預測功能,主要協助人們更快輸入預先成形的內容。但近年來,AI不僅預測單字,還能根據上下文自動補齊完整句子,甚至影響文章的邏輯和方向。這項功能雖然有助於提升效率,卻也可能在用戶未察覺的情況下,悄悄帶動他們的看法與AI的傾向一致。
研究團隊進行了兩項大規模實驗,參與者被要求就如教育標準化測驗、死刑、囚人投票權、遺傳改造成分作物與水力壓裂等爭議議題,撰寫簡短文章。其中一部分參與者在寫作時,會看到AI預測出的建議文字,而這些建議文字刻意偏向特定立場。
結果顯示,使用AI補完功能的人,其最終態度明顯向AI的建議傾斜。例如,在第一項實驗中,參與者的態度平均向AI預測的方向靠近了0.44分(以5分為滿分)。第二項實驗中,傾向差異也達到0.41分。這意味著,AI的建議不僅只是被「看到」或「讀到」,更進一步影響了寫作者的價值判斷。
更值得注意的是,參與者大多未察覺到自身態度的改變。許多人認為AI的建議「合理」、「平衡」,並未意識到這些建議本身存在偏頗。研究指出,這種影響與傳統的廣告或說服方式不同,AI建議是以「自然且無壓力」的方式嵌入寫作過程,讓用戶誤以為那是自己原本的想法。
研究團隊指出,即使事先警告參與者AI的建議可能偏頗,態度改變的幅度依然無法顯著減少。這顯示出,僅僅提醒用戶AI可能有所偏差,並不足以阻止態度的改變。
研究也提及,這項發現僅限於短期態度的變化,未來是否會影響長期觀點,尚待進一步觀察。此外,現實世界中的AI文字預測功能未必會如實驗中那般刻意偏頗,但研究仍揭示了AI文字預測對人類想法潛在的影響。
此研究於2026年3月11日發表於《Science Advances》期刊,提供了對AI在日常生活中所扮演角色的新觀點,也引發人們對AI在寫作、溝通與意見形成的深層影響的關注。
📰 本文資料來源 • ナゾロジー






編輯觀點
當我們依賴AI幫忙打字時,似乎忘記了它其實也在悄悄幫我們「思考」。這項研究提醒我們,AI不只是工具,更是潛移默化的意見塑造者。或許,我們需要更謹慎地審視,每一次點擊「建議」的背後,究竟有多少是我們的選擇。