根據《The Verge》報導,歐洲議會以大多數票通過了一系列重要修正案,一方面將歐盟《人工智慧法》(EU AI Act)中針對高風險AI系統的合規期限推遲至2027年12月,另一方面同步批准了禁止裸照生成應用程式(nudify apps)的提案,在鬆緊之間,展現出歐盟在AI監管策略上的複雜取捨。
《人工智慧法》是歐盟推動AI治理的旗艦立法,自2024年正式生效以來,被廣泛視為全球首部針對人工智慧進行全面風險分級監管的法律框架。根據原定時程,開發「高風險AI系統」的企業本應在較早時間點完成合規部署。所謂高風險AI,指的是被認定對健康、安全或基本人權構成「嚴重風險」的應用系統,包含用於關鍵基礎設施、教育評估、就業決策或司法裁判等敏感領域的AI工具。
此次投票通過的修正案將這類企業的合規期限延後至2027年12月,而涉及玩具安全、醫療器材等特定行業安全規範的AI系統,合規期限則進一步延伸至2028年8月。此舉無疑讓部分倡議人士感到失望,他們擔憂延後期限將給予AI企業更長的時間在監管真空下運作,從而加劇既有的科技監管落差。
然而,批評延後決定的聲音也面臨一個難以迴避的現實:許多AI企業,尤其是中小型開發者,在技術實力與法律資源上均難以在短期內完成高度複雜的合規評估。貿然執行原有時程,可能造成企業大規模退出歐盟市場,或將開發資源轉移至監管較鬆的地區,反而不利於歐洲建立本土AI產業競爭力的長遠目標。
另一項值得關注的規定是AI生成內容的水印要求。根據《人工智慧法》,AI系統的提供者須在生成的圖像、音訊或影片上加入可識別的技術標記,以讓終端使用者得以辨識內容是否由AI產生。這一規定對抗制深偽(deepfake)內容與AI生成的政治宣傳素材具有重要意義,但其實際執行效果仍有賴於技術標準的細化與跨境執法的協調。
與合規期限延後形成鮮明對比的,是議會在裸照生成應用程式問題上展現的強硬態度。所謂nudify app,是指能夠將任何人物照片「去衣」處理的AI工具,這類應用在近年來已造成大量針對女性的非自願性圖像侵害事件。全球多個司法管轄區均已出現受害者在未知情況下遭人使用這類工具製作侵權圖像的案例,且由於生成速度快、成本低,受害者往往在事發後難以全面追蹤與下架相關圖像。
歐洲議會此次明確表態支持禁止此類應用,顯示在「數位性暴力」議題上,歐盟正採取比AI整體監管更為積極的立場。這一取向也呼應了歐洲理事會去年通過的相關決議,以及多個歐盟成員國已陸續推動的本國立法進程。
從更宏觀的視角來看,此次投票的結果體現了歐盟在AI監管路徑上的一個核心張力:如何在保護基本人權與促進技術創新之間找到可持續的平衡點?延後高風險AI的合規期限,是對產業現實的讓步;禁止裸照生成工具,則是對數位人權的堅守。兩者並行,恰恰說明歐盟的AI監管並非鐵板一塊,而是持續在具體議題上進行動態校準的政策過程。
對於全球AI監管的走向而言,歐盟的每一步都具有示範效應。當美國聯邦層級的AI監管仍停留在倡議階段,亞洲各國政府也在摸索自身的監管框架之際,布魯塞爾的立法實踐——無論其結果如何——都將持續影響全球科技公司的產品設計與市場策略。
📰 本文資料來源 • 原始報導:The Verge — "EU backs nude app ban and delays to landmark AI rules" (2026-03-26) • 法規背景:European Parliament — EU Artificial Intelligence Act (2024)



編輯觀點
歐盟一邊給企業多兩年緩衝期,一邊對裸照生成App零容忍——這不是矛盾,而是精準的政治選擇:對產業讓步,對人權不退讓。