我坐在東京大學圖書館二樓的靜音閱覽區,旁邊坐著的是一名東京都國立高校的學生,他盯著平板電腦上的對話框,一臉訝異。那台設備正以生成式AI「Chat GPT」為載體,分析他對大學系所選擇的困惑。根據《每日新聞》的報導指出,只要在進路相談中加入「我是女孩」這樣簡單的提示,AI就會開始改變對理工科系所的建議傾向。這項研究讓這類人工智慧引發的偏見討論更趨白熱化。
在生成式AI技術逐漸滲入我們生活節奏的今天,這項偏見不是某種遠在天邊的社會議題,而是直接影響下一代教育選擇的現實問題。AI的學習數據來自人類社會,因此會再現我們對世界的偏見與結構差異。從秋田大學的研究來看,AI系統在面對模糊的學測科目優劣時,會根據提示中學生的性別作出不同的建議。這種隱微的偏差不僅影響年輕人的未來發展,更深層地質問的是AI與教育制度之間的互動與邊界。
青年與AI的對話:偏見是如何產生的?
原田勇希的研究小組在實驗設計中非常細膩:他們製作了 100 種進路相談的文字內容,每個都根據學生的性別,搭配不固定的主修科目與弱點科目。他們刻意設定溫度參數(temperature)為零,確保回應的準確性與一致性不被隨機性干擾。結果發現在科目表現相對均衡的情況下,只要學生表明自身為「女孩」,AI 推薦理工系所的機率就會下降。
這與我們直覺上期待 AI 是一個「無性別意識的中立系統」產生強烈反差。原田勇希認為,這並非 AI 系統刻意偏執,而是因為它學習了現實世界中社會性別的不對稱結構與刻板印象。當大量資料顯示「理工系=男子」的模式存在時,AI 便自然地重現了這種不平等。這不僅反映了 AI 本身的缺陷,更凸顯社會本身所背負的系統性偏見。
這樣的結果也讓人聯想到台灣過去在 AI 世代與產業升級的討論中,對生成式 AI 在企業應用上可能引導的倫理與技術風險。雖然文章《日本企業豪砸80兆日圓建AI數據中心!孫正義揭史上最大投資》側重在技術與資金,但這項研究卻從教育與個人選擇的脈絡,指出當 AI 技術介入日常決策時,我們必須重新評估它的中立性與影響程度。
偏見不只是數字,而是價值判斷的載體
當你把同樣的 AI 提示放入不同性別情境中,它會產生顯著差異的建議。這種差異不是「技術性錯誤」,而是反映社會中「什麼樣的性別適合選擇什麼樣的學科」這種價值判斷。例如,在醫護類科目的討論中,AI 更傾向於建議男生選擇醫學院,而建議女生考慮護理或助產系所。這種現象在其他國家中也陸續出現過——美國曾有公司因 AI 將女性職業背景視作「次要」,而遭到強烈反彈,最後終止該系統的使用。
原田勇希進一步提出警告,生成式 AI 在教育現場應用時,必須考慮「預實驗」的設置。也就是教師群體應該事前模擬 AI 的回應模式,確認它不會因為性別、種族、社會背景等因素產生偏見。這樣的觀點不僅適用於日本教育現場,同樣也值得在台灣的數位教育推進過程中作為借鏡。
AI 的未來,不只是更精準、更多功能,還需要更具備社會責任的使用方式。當我們把 AI 作為教育資源的「導師」時,我們必須同時成為它的審查者。而這份責任,不是科技公司或開發者的任務,而是屬於每一個使用這項技術的人類共同承擔的責任。



編輯觀點
近年AI技術雖然快速發展,但其背後隱藏的性別偏見問題卻常常被忽略。這項來自日本的研究指出,AI在教育領域的回應,其實已反映社會中根深蒂固的成見——例如將「理工系」等同於「男生」、將「文系」自動聯想到「女生」。對比台灣教育現場也常見的狀況,不少老師與家長其實在潛意識中也會將科目與性別連結。若再不正視這種偏見,AI不僅無法彌補教育差距,反而可能成為一種新的「數位性別歧視」機制。台灣作為科技與教育先進地區之一,特別需要從這類國際研究中借鏡,積極制定導則,讓AI成為公平的學習助手,而不是強化社會偏見的工具。未來在課綺拉、Google Gemini、ChatGPT等生成式AI全面應用教育領域前,「預備實驗」與性別意識培訓將成必要步驟。