根據《GIGAZINE》報導,國際知名的開放知識平台維基百科(Wikipedia)於2026年3月正式採用針對文章生成人工智慧(AI)的全新指引,明確禁止利用AI工具創作或修改文章內容。此舉標誌著維基百科在面對AI技術快速發展的同時,也正積極調整其開放性與準確性的平衡點。
維基百科自創建以來,一直建立在全球志工的貢獻之上,每篇文章必須遵循「中立、可靠、可查證」的原則。然而,近年來AI生成文字技術迅速發展,不僅能快速產出文章,還能模擬人類寫作風格,這使得維基百科的內容審核機制面臨前所未有的挑戰。
根據新指引,維基百科編輯者不得使用AI模型如ChatGPT等工具,自行撰寫或修改文章內容。這項禁令的主要原因在於AI生成的內容經常缺乏可靠來源,且可能包含錯誤資訊或偏見,與維基百科的編輯準則相違背。然而,AI在文章翻譯與文字校對等次要用途上仍被允許,前提是須由兩種語言皆通的人員進行人工確認。
此項議題早在2025年12月便已引發編輯社群的廣泛討論。當初雖然達成需制定更明確指引的共識,但尚未形成具體措施。直至2026年3月,編輯者Chaotic Enby提出更清晰的修正草案,並於3月20日完成投票,最終以44票贊成、2票反對的結果獲得通過。
根據維基百科的資料,AI生成文字雖然產量龐大,但若缺乏人工後處理,將對志工造成沉重負擔。例如,AI可能無意中加入未經證實的資訊或違反條例的內容,一旦被納入文章,後續修訂與修正的壓力往往落在志工身上。此外,AI生成文章的風格與人類編輯相似,導致有時難以區分,誤判可能引發不必要的爭議。
維基媒體財團的機械學習與數據工程負責人也表示,這項新指引的目標在於減少AI誤導使用者的風險,同時也保護志工的貢獻價值。新指引並未完全排除AI技術的協助,而是強調「在可控範圍內」的使用。例如,翻譯時若能結合人工確認,不僅可以加快文章更新速度,也能確保資訊的正確性。
與此同時,維基百科也強調,不能單憑文章風格來斷定是否為AI產出。編輯社群中亦有人擁有與AI相似的寫作風格,因此需根據編輯歷程與內容的合法性等多角度進行評估。維基百科認為,這樣的調整既能維持開放精神,又能確保資訊品質。
此外,新指引亦受到學者與研究機構的肯定。多數專家認為,維基百科在AI時代的內容治理上,已邁出關鍵一步,其做法對其他開放知識平台具有高度參考價值。未來如何在技術與人本之間尋求平衡,將是開放知識社群持續關注的重點。
📰 本文資料來源 • GIGAZINE《Wikipediaが文章生成AIの新ガイドライン採用、記事本文の作成は原則禁止》 • Wikipedia:Writing articles with large language models • Wikipedia:Writing articles with large language models/RfC




編輯觀點
維基百科的新指引體現了開放知識平台在AI時代的自我調整,強調「人本」與「準確」,值得其他平台借鑒。