我坐在東京大學圖書館二樓的靜音閱覽區,旁邊坐著的是一名東京都國立高校的學生,他盯著平板電腦上的對話框,一臉訝異。那台設備正以生成式AI「Chat GPT」為載體,分析他對大學系所選擇的困惑。根據《每日新聞》的報導指出,只要在進路相談中加入「我是女孩」這樣簡單的提示,AI就會開始改變對理工科系所的建議傾向。這項研究讓這類人工智慧引發的偏見討論更趨白熱化。

在生成式AI技術逐漸滲入我們生活節奏的今天,這項偏見不是某種遠在天邊的社會議題,而是直接影響下一代教育選擇的現實問題。AI的學習數據來自人類社會,因此會再現我們對世界的偏見與結構差異。從秋田大學的研究來看,AI系統在面對模糊的學測科目優劣時,會根據提示中學生的性別作出不同的建議。這種隱微的偏差不僅影響年輕人的未來發展,更深層地質問的是AI與教育制度之間的互動與邊界。

青年與AI的對話:偏見是如何產生的?

原田勇希的研究小組在實驗設計中非常細膩:他們製作了 100 種進路相談的文字內容,每個都根據學生的性別,搭配不固定的主修科目與弱點科目。他們刻意設定溫度參數(temperature)為零,確保回應的準確性與一致性不被隨機性干擾。結果發現在科目表現相對均衡的情況下,只要學生表明自身為「女孩」,AI 推薦理工系所的機率就會下降。

這與我們直覺上期待 AI 是一個「無性別意識的中立系統」產生強烈反差。原田勇希認為,這並非 AI 系統刻意偏執,而是因為它學習了現實世界中社會性別的不對稱結構與刻板印象。當大量資料顯示「理工系=男子」的模式存在時,AI 便自然地重現了這種不平等。這不僅反映了 AI 本身的缺陷,更凸顯社會本身所背負的系統性偏見。

這樣的結果也讓人聯想到台灣過去在 AI 世代與產業升級的討論中,對生成式 AI 在企業應用上可能引導的倫理與技術風險。雖然文章《日本企業豪砸80兆日圓建AI數據中心!孫正義揭史上最大投資》側重在技術與資金,但這項研究卻從教育與個人選擇的脈絡,指出當 AI 技術介入日常決策時,我們必須重新評估它的中立性與影響程度。

偏見不只是數字,而是價值判斷的載體

當你把同樣的 AI 提示放入不同性別情境中,它會產生顯著差異的建議。這種差異不是「技術性錯誤」,而是反映社會中「什麼樣的性別適合選擇什麼樣的學科」這種價值判斷。例如,在醫護類科目的討論中,AI 更傾向於建議男生選擇醫學院,而建議女生考慮護理或助產系所。這種現象在其他國家中也陸續出現過——美國曾有公司因 AI 將女性職業背景視作「次要」,而遭到強烈反彈,最後終止該系統的使用。

原田勇希進一步提出警告,生成式 AI 在教育現場應用時,必須考慮「預實驗」的設置。也就是教師群體應該事前模擬 AI 的回應模式,確認它不會因為性別、種族、社會背景等因素產生偏見。這樣的觀點不僅適用於日本教育現場,同樣也值得在台灣的數位教育推進過程中作為借鏡。

AI 的未來,不只是更精準、更多功能,還需要更具備社會責任的使用方式。當我們把 AI 作為教育資源的「導師」時,我們必須同時成為它的審查者。而這份責任,不是科技公司或開發者的任務,而是屬於每一個使用這項技術的人類共同承擔的責任。


延伸閱讀