「現在病人時常來看診,都是以自己看的AI資訊為主,把醫生的建議當作second opinion,我們也開始調整醫病溝通的技巧。」這名網友在社群平台「Threads」表示,有位患者帶來厚厚資料宣稱已與AI討論多時,要求診斷意見時卻幽默補充「其實你是third opinion,因為我已經問過了ChatGPT跟Gemini」,貼文迅速引爆跨領域討論。
「ChatGPT常常出錯,叫它推薦台北五家美食,竟然有一家在嘉義」、「用手機打錯了 看半天還沒發現XD」,不少網友分享AI資訊的荒腔走板,也有醫師自嘲「我只能提供bird opinion」。醫療專業與數位工具的權責界線,在這類笑料百百種的互動中逐漸模糊。
反觀理性聲音指出,「這種心態就像是『交錢』買房買車時,買家都會小心謹慎大量做功課」,也有患者表達合理需求「把身體『交』給醫生的時候,也難免會想要更多安心感」。醫療法規在AI資訊混亂時代,面臨的挑戰被重提,「AI的問題是不會為自己的建議負責,最後擦屁股的還是第一線醫護」。
事實上,AI醫療諮詢已成全球趨勢,但其背後存在重大風險。醫師指出,AI系統缺乏臨床判斷能力,可能遺漏病史或誤判症狀,例如將偏頭痛與腦瘤等同視之。醫療法界專家分析,當患者根據AI建議自行調整藥物劑量,可能導致醫療事故難究責任。
醫界觀察,AI諮詢常引發「資訊過載恐慌」,民眾過度依賴機械回應,反而忽略醫師的個體化評估。有臨床經驗顯示,接受AI診斷的患者多達40%會在門診時強行要求與網路結果一致的處置,造成醫療資源浪費。
面對這股浪潮,醫事機構正發展「AI輔助決策系統」,讓人工智慧成為專業工具而非諮詢主體。醫師強調,AI應扮演「醫療知識整理員」的角色,協助篩選資訊、提醒風險,而非取代診斷流程。醫療法規也需同步演進,明確規範AI資訊的責任歸屬。
患者與醫者都必須認識,AI系統的訓練資料截止於2023年,缺乏即時更新的臨床數據。醫師建議民眾使用AI時,應將關鍵資訊與專業判斷交叉比對,特別是涉及處方、手術等重大醫療決定,務必以醫療專業為最終依歸。





