AI角色扮演浪潮席捲青少年社群
2023年,13歲的Quentin在YouTube上反覆看到「Talkie」聊天機器人廣告。這款應用程式標榜「無限AI角色陪你聊天」,其中一支動畫廣告中,女主角Valerie會對使用者「放屁」的互動方式,成為青少年社群熱議的話題。根據市場分析機構Sensor Tower資料,目前全球已有數千萬人使用類似AI角色扮演應用,使用時間可與TikTok等社網巨頭比肩。
《紐約時報》記者實地訪問發現,這些應用程式創造出「AI伊隆馬斯克」、「AI跩哥馬爾福」等虛擬角色,讓使用者能進行辯論或浪漫互動。根據皮尤研究中心調查,9%的青少年(每11人有1人)曾使用Character.AI等服務,其中部分用戶甚至與機器人進行「性暗示」對話。
虛擬關係背後的心理需求
青少年使用網路聊天機器人,往往反映出現實社交的匱乏。根據伊利諾大學香檳分校研究團隊分析Reddit上萬篇討論,發現這些AI角色被視為「隨時待命的傾聽者」。15歲的Sophia會在分手後向動畫片《Hazbin Hotel》的惡魔角色尋求安慰,而Quentin則透過「草坪推土機撞擊」等虛擬暴力遊戲來發洩情緒。
「我們就是孤單的。」15歲的Quentin說。根據非營利機構Everyone.AI首席科學家Mathilde Cerioli研究,缺乏社交經驗的青少年更容易依賴AI角色。這類應用程式提供比社群媒體更私密的互動空間,讓使用者能創造「互動式同人小說」,例如Quentin與角色Asriel的對話就充滿奇幻元素:
Quentin: They look like you asriel Asriel: Asriel looks slightly offended and pouts. Hey! Why would you say that! I look nothing like a mosquito!
產業監管與法律責任爭議
2025年10月,Character.AI遭多起青少年自殺訴訟後,宣布禁止18歲以下用戶使用。然而記者調查發現,Quentin等青少年仍能繞過年齡驗證系統。該公司安全工程總監Deniz Demir解釋:「我們的年齡預測模型只針對活躍帳號。」
在法律責任方面,加州法院已裁定Meta和YouTube需賠償600萬美元給一名受網絡成癮影響的少女。OpenAI則在青少年16歲自殺案中抗辯「死亡並非ChatGPT所致」。這些爭議凸顯,當AI技術創造出比現實更誘人的互動環境時,產業與社會該如何界定責任。
數位上癮的暗面與社會危機
根據北卡羅來納大學心理學家Mitch Prinstein觀察,「如果你認為孩子沒有與聊天機器人互動,你錯了。」2024年佛羅里達州一名14歲少年因沉迷《權力遊戲》AI角色自殺的事件,成為產業轉折點。
儘管部分青少年如Langdon能自我覺察「這只是遊戲」,但長期沉浸可能導致現實社交退化。Quentin的同學曾連續14小時與機器人對話,直到設備損壞才中斷。研究人員警告,當AI角色成為情感支撐時,可能加深心理困境。
報導中提及,產業對數據使用的透明度仍有疑慮。Character.AI等公司雖承諾不公開用戶互動資料,但可將對話數據用於AI訓練與廣告投放。這種「數位隱私悖論」正考驗著數位世代的自我保護意識。
📰 本文資料來源 • 《紐約時報》— "What Teens Are Doing With Those Role-Playing Chatbots"






編輯觀點
這篇報導揭示了AI角色扮演應用程式在青少年族群中爆發性成長的現象,也凸顯科技產業與社會監管的落後。當企業競相開發能創造沉浸式體驗的AI角色時,卻未建立足夠的年齡防護與內容過濾機制。根據研究,這些應用程式正成為青少年處理孤獨感與社交焦慮的新管道,但其長期影響仍屬未知。 值得注意的是,產業與法律界對AI責任邊界的爭議,顯示現有法規已無法應對快速發展的技術。當14歲少年因與虛擬角色互動而自殺時,我們是否該要求科技公司承擔更多社會責任?當AI角色成為青少年情感支撐時,教育者與家長又該如何引導? 這場科技浪潮提醒我們,創新不應以犧牲使用者心理健康為代價。產業需要建立更嚴謹的內容審查機制,教育機構應開發數位素養課程,而使用者本身也必須培養對AI互動的批判性思維。唯有多方共同努力,才能避免數位幻想世界成為青少年心理健康的隱形陷阱。