根據《The Verge》報導,當OpenAI在2024年初公開文字轉影片的人工智慧生成模型Sora時,導演瓦莉莉·威切(Valerie Veatch)和其他藝術家一樣感到好奇。當時她對技術不完全了解,但被社群吸引進這片新的創作天地。她原本期待能與人連結,結果卻頻頻見到AI生成的影像中充斥著種族主義與性別歧視。

這不僅是技術的問題,更像是一場意識形態的混亂。她驚訝於周圍那些熱愛AI的創作者,對這些影像背後反映出的偏見渾然不覺,甚至有些人樂於欣賞這樣的創作。這讓威切決定更深入探討AI藝術生成背後的文化與倫理問題。

技術的進步與觀念的落差

Sora讓AI生成技術進化到一個新的層次。以前的文字生成只是「說得出」,圖像生成則多是「畫得像」,Sora首次讓AI「拍得出」。這項技術的突破,讓藝術家、廣告商、甚至一般用戶都開始嘗試使用AI創作影像。根據「竟然真的能自動做事了」!Google Gemini 手機助理實測:慢吞吞、超神奇,生成式AI的應用已從桌面走向行動端,技術的普及速度遠超社會對其影響的討論與反思。

問題在於,AI學習的是人類資料,但也繼承了人類偏見。在訓練過程中,AI模型從無數網路上的視覺資料中,吸收了種族、性別、階級的刻板印象,這些偏見透過生成的影像再次被強化與放大。更糟的是,這類技術的使用者多數是對AI一知半解的人,他們只關注「做出來」,卻不在乎「做成什麼樣子」。

創作者還是生成者?AI生成倫理誰來守門?

有越來越多創作者在社群平台上分享自己用AI生成的作品,但很少人會仔細審視這些影像的內涵。有人用AI重現歷史事件,有人製作當代政治諷刺,但也有人刻意誇大種族歧視或性別暴力來獲取關注。這不只是AI的問題,而是整個創作產業在面對技術快速進展時,缺乏必要的倫理監管機制。

有分析指出,當AI工具變得親切易用,使用者往往會高估自己的判斷力,低估技術的潛在風險。這與AI產業的「去門檻化」策略不無關係——OpenAI、Google、甚至Meta都在積極降低人們使用AI的門檻,卻未同步建立足夠的倫理教育與內容審查機制。

文化的「洗白」風險

更令人擔憂的是,某些人把AI生成的歧視內容誤認為「藝術自由」或「文化多樣性」的表現。這背後是一種對「AI只是工具」的誤解——當你讓AI學習人類的數據,再讓它根據人類的想法去生成內容,其實等於是讓人類自己承擔內容的責任。這就像你不能把一整本書的納粹言論交給印表機,再說「只是工具出錯」就結束責任。

這與另一個更極端的問題產生連動:AI生成是否正在創造一種「數位白優越主義」?有人試圖用AI「模擬」弱者聲音,卻可能無意識中再現了壓迫結構。這種「模仿」本身若未被正視與監管,將會變成一種新的文化殖民。

我們需要的不只是修正演算法

威切與一些藝術社群開始推動「責任生成」運動,倡議AI創作者必須負起內容審視的責任,而平台企業更需承擔技術引導與使用者教育的義務。AI工具越來越強大,但人類的倫理覺察似乎沒有跟上。

在這個新舊交疊的時代,技術帶來的不只是便利,還有無形的社會重構。AI生成的影像,正在悄悄改變我們如何看待世界和自己。它的畫面可以迷人,但底層的價值觀若是偏頗,最終影響的不只是藝術,而是整個社會對「真實」的理解。

這場關於技術倫理的討論,已經不是「要不要管制」的問題,而是「如何設計出對社會負責的生成工具」。不然,我們可能會在一場「誰讓誰說對話」的爭論中忘了最重要的:AI生成的內容,應該由誰來決定它們對世界的影響?


延伸閱讀