2022 年 ChatGPT 問世以來,任何有智慧型手機的人都感覺到網路上的 AI 垃圾越來越多。現在,第一份大規模量化研究終於證實了這個直覺——而且結果比你想的更複雜。
35% 新網站是 AI 寫的:第一份大規模量化研究
倫敦帝國學院、史丹佛大學與網際網路檔案館(Internet Archive)的研究團隊,利用 Wayback Machine 收集的網頁快照,對 2022 年至 2025 年間建立的新網站進行了系統性分析。他們嘗試了四種不同的 AI 偵測方法,最終選定 Pangram Labs 的工具(研究團隊指出,所有 AI 偵測工具都不完美,但該工具在測試中表現最穩定)。
結論:約 35% 的新網站是 AI 生成或 AI 輔助的。
這不是某個部落格的猜測,而是基於網際網路檔案館資料的嚴謹學術研究。研究團隊不只量化了 AI 內容的規模,還針對 AI 垃圾的六大特徵逐一驗證。
AI 讓網路變「假快樂」:正面情緒高出 107%
研究中最引人注目的發現,是關於「人工快樂」。
團隊使用情感分析(sentiment analysis)將文字分為正面、中性和負面,發現 AI 生成或 AI 輔助的網站,正面情緒分數比人類網站高出 107%。
研究者將這種現象視為大型語言模型「諂媚且過度樂觀」本質的「症狀」。當 AI 寫作工具習慣性地討好使用者時,這種傾向會外溢到整個網路的文字基調上,讓線上內容變得更加甜膩。
簡單來說:AI 正在讓整個網路假裝很快樂。
思想同質化:AI 正在縮小網路的意見光譜
另一項重要發現是 AI 對思想多樣性的影響。
研究者檢驗了 AI 寫作是否會「縮小獨特想法和多元觀點的範圍」。結果顯示,AI 確實讓網路的意識形態多樣性降低——AI 網站在「語意相似度」(semantic similarity)的測試中,分數比人類網站高出約 33%。
這意味著 AI 生成的內容在表達的想法上更加趨同,正在壓縮網路上原本多元的意見光譜。
推翻三大假設:假新聞、風格制式、不引用外部來源
但研究也帶來了意外的好訊息。在六項假設中,有四項未被證實:
1. AI 會導致假新聞增加?❌ 未被證實。 研究者原本預期 AI 會推升假資訊,但資料分析不支援這個假設。
2. AI 寫作不會引用外部來源?❌ 未被證實。 AI 內容並沒有比人類內容更少連結到外部網站。
3. AI 寫作風格比人類更制式?❌ 未被證實。 這是最讓研究團隊驚訝的結果。史丹佛大學研究員 Maty Bohacek 坦言:「團隊裡每個人都以為這一定是真的。但我們就是找不到顯著的證據。」
雖然 AI 寫作的「想法」更同質化(更一致地快樂),但「寫作風格」本身並沒有被證實變得更扁平。這是一個微妙但重要的區分:AI 可能讓大家說的話更像,但說話的方式並沒有變得更像。
人類預期 vs 現實:我們對 AI 的恐懼哪些是錯的?
研究團隊在分析前委託了一項民調,調查人們對 AI 的感受。對比結果後發現,不只研究者的預期被推翻,大眾的許多常見信念也是錯的。
大多數受訪者預期 AI 會增加假新聞、不引用外部來源、讓寫作風格趨於制式。但這三個假設都沒有被資料支援。Bohacek 說:「有趣的是,人們傾向於預期最糟的結果。」
這並不意味著 AI 對網路沒有影響。35% 的新網站是 AI 生成的、網路變得虛假地快樂、思想多樣性下降——這些都是真實且值得警惕的趨勢。但我們對 AI 的恐懼,有些是準確的,有些則是想像出來的。
正如 Bohacek 所說:「我們只是想開一個頭。有時候,事情的發展方向就是很難預測。」
📰 本文資料來源 • 《WIRED》— "AI Slop Is Changing the Internet, Just Not How You Might Think" • 研究來源:Imperial College London、Stanford University、Internet Archive 聯合預印本研究






編輯觀點
這項研究最有價值的地方不在於證實了什麼,而在於推翻了什麼。我們對 AI 的恐懼往往是籠統的「AI 會毀掉一切」,但實際影響是非均勻的:AI 確實讓網路更假快樂、更同質化,但並沒有讓假新聞增加或寫作風格變得更制式。這種精細的區分對政策制定者和平臺設計者來說至關重要——你要解決的問題如果搞錯了,解法也會跟著錯。對內容創作者而言,這項研究是一面鏡子:如果你的內容讀起來像 AI 寫的——過度正面、缺乏獨特觀點——讀者已經開始有感覺了。