根據《NPR Health》報導,美國心理學界專家建議,心理治療師應主動詢問患者是否使用人工智慧聊天機器人(AI chatbot)來獲得情緒支援與陪伴。這項建議來自一篇刊登於《JAMA Psychiatry》的新研究,指出治療師應將AI使用納入評估患者心理健康的重要環節,就如同瞭解患者的睡眠、飲食、運動與酒精攝取等行為。

紐約大學社會工作學院助理教授Shaddy Saba表示:「我們並不是說使用AI是好或壞,就像我們不會說使用藥物或諮詢朋友是好或壞。」他指出,瞭解患者如何使用AI來處理情緒與心理健康問題,有助於治療師更深入理解患者行為背後的原因。

美國心理學會(APA)健康顧問Vaile Wright表示,詢問患者與AI的互動,有助於治療師瞭解他們如何應對心理健康挑戰。「這為治療師提供了基礎,讓他們更清楚患者如何嘗試維持情緒健康與處理心理疾病。」

Saba進一步說明,人們經常使用AI聊天機器人來處理壓力、人際關係問題,甚至尋求處理焦慮與憂鬱症狀的建議。「如果我們能引導患者詳細談論與AI的對話,這將是一個寶貴的資訊來源。」他舉例說,患者可能因為害怕與配偶對話而轉向AI尋求建議,瞭解這一點能幫助治療師提供更有效的支援。

前美國國家心理健康研究院(NIMH)院長Tom Insel也指出,AI聊天機器人經常被患者用來討論他們不願與他人分享的敏感議題,例如自殺想法。他強調,這些資訊對治療師來說至關重要,有助於確保患者的安全。

Saba建議治療師在與患者談論AI使用時,應以好奇而非批判的態度進行,避免讓患者感到被指責。他建議治療師可以這樣開頭:「AI技術發展很快,我聽說很多人用ChatGPT來獲得情緒支援。你有沒有試過?」

此外,治療師也應詢問患者與AI互動的具體經驗,瞭解哪些部分有幫助、哪些部分有問題,並提醒患者注意AI使用的潛在風險,例如資料隱私問題。Insel也警告,將AI聊天機器人當作心理治療師使用,可能導致患者錯失真正需要的專業支援。

📰 本文資料來源 • NPR Health