根據《ITmedia NEWS》報導,維基百科背後的非營利組織Wikimedia Foundation於2026年3月20日(UTC時間)更新了其內容指引,明確禁止使用大規模語言模型(LLM)來生成或修改百科內的主體文章內容。
此次更新的指引指出,由ChatGPT、Gemini、DeepSeek等類似人工智慧工具生成的文字,往往與維基百科核心內容政策不符,因此除非符合兩種特定例外,否則不得用於維基百科的編輯過程。這兩種例外一是允許編輯者讓LLM協助校對個人撰寫的文本,並在人工審核後加入部分建議;二是允許將非英文版本的維基文章翻譯為英文版本,但需遵循Wikipedia:LLM支援翻譯的既定指引。
值得注意的是,維基並未明確說明如何辨識一篇文章是否為LLM所生成。指引中指出,編輯者可能會有與LLM相似的文風,因此僅憑語體或語言特徵並不足以作為處罰依據。更應該考慮的是文本是否符合維基核心內容政策,以及該編輯者近期的編輯歷程。
這項政策更新正值人工智慧技術迅速發展的當下。根據市場研究機構Statista的數據,截至2025年底,全球有超過10億人使用過LLM類工具,其中僅次於Google搜索的使用頻率。然而,LLM生成內容的準確性與倫理問題也屢屢引發爭議。倫敦大學學院(UCL)資訊工程教授Dr. Sarah Lin指出:「維基的這項政策反映了人工智慧對知識管理體系帶來的挑戰。維基作為全球最大、最廣為引用的開放知識平台,有必要維護其內容的可信度與人類審查機制。」
維基的這項舉動,也影響了其他開放知識平台的未來政策方向。例如,由開放知識基金會(OKF)主辦的「開放知識論壇」在2025年已提出類似建議,鼓勵知識平台在使用人工智慧技術時強化透明度與人類審核流程。
「我們並非反對人工智慧,而是希望確保知識的真實性與可靠性。」維基基金會在聲明中強調。這項政策雖引起部分技術愛好者不滿,但編輯社區普遍支持這一決定,認為這有助於保護維基百科的長期公信力。
📰 本文資料來源 • ITmedia NEWS





編輯觀點
維基百科的這項政策更新,代表開放知識平台對人工智慧生成內容的審慎態度,也反映了人類編輯與人工智慧技術之間的權責界線。