「AI百科全書」的致命盲點
多倫多數據分析師史提芬·潘瓦西(Stephen Punwasi)去年冬天在晚餐時接獲新聞推送,聲稱職業摔角巨星荷克·霍根(Hulk Hogan)的妻子將針對其死訊提告。當他詢問Google「荷克·霍根何時去世」時,AI摘要功能(AI Overviews)回應:「目前沒有可信消息顯示荷克·霍根已去世」。然而下方連結的《每日郵報》文章卻標題為〈荷克·霍根死因之謎加深〉。
這類矛盾現象正是Google 2024年推出AI Overviews後遭遇的爭議。根據人工智慧新創公司Oumi的分析,Google每5分鐘處理8.8億次搜索的規模下,意味每分鐘產生數萬筆錯誤回答,每小時達570萬筆。更令人擔憂的是,56%正確答案的資料來源無法完整支持其內容,形成「看似可信但無根據」的資訊危機。
技術升級與信任危機並存
Google在2024年10月與2026年2月兩次升級AI模型,從Gemini 2到Gemini 3,Oumi測試顯示準確率從85%提升至91%。但這項進步卻伴隨「無根據回答」比例從37%竄升至56%。當系統正確回答問題時,僅有44%的資料連結能完整佐證其內容,顯示AI生成的資訊可信度正逐步劣化。
以鮑勃·馬利(Bob Marley)博物館開幕日期為例,AI Overviews誤判為1987年,而實際開幕日為1986年5月11日。其引用的3個來源中,包含臉書粉絲專頁、旅遊部落格與維基百科,各自提供矛盾資訊。這種現象在Oumi分析的5,380個來源中,臉書與Reddit分別佔第二與第四名被引用次數,顯示社交平台內容已深度介入AI生成流程。
誰能守住資訊正確的最後防線
人工智慧顧問公司Okahu執行長帕特里克·韋爾馬(Pratik Verma)指出:「永遠不要只信賴一個來源。」他強調用戶應養成交叉驗證的習慣,但這對普通搜尋者形成實質挑戰。Google雖然在每個AI摘要底部標註「AI可能出錯,請確認資訊」,但其內部測試顯示Gemini 3仍存在28%的錯誤率。
更複雜的是AI系統的動態特性。當相同問題在數秒內重複查詢時,Google可能先回傳正確答案再產生錯誤回應。這種不穩定性使第三方機構難以精準評估系統表現。Oumi執行長馬諾斯·庫庫米迪斯(Manos Koukoumidis)痛心指出:「即使答案正確,人們如何驗證其正確性?誰能確保這不是AI的隨機猜測?」
系統漏洞:從河流誤判到虛假頭銜
在測試中,Google AI Overviews將北卡羅來納州戈爾斯伯勒市的西部邊界誤判為Neuse河,實際上應為Little River。當被問及「小提琴家馬友友何時入選古典音樂名人堂」時,系統正確連結到官方網站卻錯誤回應「無相關記錄」。這些案例顯示,即使引用可信來源,AI仍可能扭曲或忽略關鍵資訊。
更令人擔憂的是系統易受操縱特性。市場行銷機構Amsive高層莉莉·雷(Lily Ray)指出:「只要在網路上自我宣稱是某領域專家,AI就會自動認可。」BBC播客《The Interface》主持人湯瑪斯·葛萊門(Thomas Germain)實測時,僅需發佈一篇虛構技術記者吃熱狗競賽文章,Google便自動將其列為「新聞部門競食大賽」冠軍。
在《紐約時報》委託的測試中,AI系統甚至在正確回答「棒球投手迪克·德拉戈去世時78歲」的同時,錯誤重複宣稱其去世日期11次。這種「正確中混雜錯誤」的複合型謬誤,使用戶難以判斷資訊可信度。
📰 本文資料來源 • 《紐約時報》— "How Accurate Are Google’s A.I. Overviews?"






編輯觀點
在資訊爆炸時代,Google AI Overviews的技術突破與倫理風險形成強烈對比。其91%的準確率看似傲人,但每分鐘數萬筆的錯誤資訊已構成系統性風險。當AI系統開始引用社交媒體內容作為可信來源,並能被輕易操弄生成虛假資訊時,我們正滑向一個「偽知識」氾濫的時代。這不僅是科技公司的技術挑戰,更是整個社會需要共同面對的資訊治理課題。普通用戶需理解:AI生成內容永遠不等於事實,每次搜索都該進行多源頭交叉驗證。唯有建立這種資訊素養,才能避免成為AI幻覺的受害者。