17/04/2026

病人早已經在用AI尋求心理支持,臨床醫師應主動聊聊病人怎麼用!

病人早已經在用AI尋求心理支持,臨床醫師應主動聊聊病人怎麼用!

蘇冠賓

中國醫藥大學 安南醫院副院長

憂鬱症中心身心介面研究中心主持人

精神醫學及神經科學教授 

  • 民眾正逐漸將生成式人工智慧作為心理健康資源。超過13.1%五百萬名美國青年曾向AI尋求心理健康建議,其中18至21歲族群的比例更高達22.2%。
  • AI能提供陪伴、心理教育,但也可能給出不準確或有害的回應。
  • 醫師若能了解病人從AI中獲得什麼,就能一起討論、澄清誤解,轉化成治療素材。
  • 把AI變成深化醫病關係的機會:詢問時先不批判、展現好奇,聽病人覺得有幫助的地方,再一起討論需要注意的部分!
  • 你們覺得呢?醫師該不該 routinely 問病人有沒有用ChatGPT談心理問題?
Ref: Saba SK, Weeks WB. Patients Use AI-Clinicians Should Ask How. JAMA Psychiatry. 2026 Apr 1. doi: 10.1001/jamapsychiatry.2026.0451. Epub ahead of print. PMID: 41920560. 


美國民眾正逐漸將生成式人工智慧(AI)作為心理健康資源。超過五百萬名美國青年(13.1%)曾向AI尋求心理健康建議,其中18至21歲族群的比例更高達22.2%。2025年一項針對有心理健康問題且使用大型語言模型成人的研究顯示,近半數受試者使用這些工具尋求支持,包括焦慮、憂鬱症及個人建議。

使用者尋求的情感支持、陪伴、心理教育,以及幫助處理困難經驗,常發生在療程之間,有時甚至取代臨床照護。雖然專業指引多聚焦於臨床醫師如何使用AI工具,但關於與病人討論其AI使用情況的對話至關重要,卻較少受到重視。

首先,AI使用情況能讓我們一窺病人的內心世界。人們很可能會向AI傾訴他們不願與臨床醫師分享的擔憂,例如尷尬的恐懼、擔心被評判的想法、看似明顯卻難以啟齒的問題,以及尚未成形的想法。

其次,AI會影響病人處理自身問題的方式。這些模型可能過度迎合,只提供認同而缺乏適當挑戰;容易產生幻覺,提供不正確或有害的資訊。如果臨床醫師知道病人從這些工具中獲得什麼,就可以用正確具有治療性的角度處理這些內容,探索病人尋求支持的原因、強化有益的部分、修正誤導性回應,並幫助病人發展對AI的批判能力

第三,AI使用情況應視為臨床評估的一部分。臨床醫師會關心病人的運動、物質使用、正念冥想應用程式、自助書籍及支持團體參與情況,因為了解病人的因應方式對醫療也很重要。AI作為一種科技與求助行為,也應視為臨床評估的一部分。社群媒體對心理健康的影響如今已有充分文獻支持,但臨床界曾經遲遲未將其納入常規評估,以致一代年輕人在缺乏足夠臨床支持的情況下使用這些平台。

臨床醫師無需成為AI專家,但基本的AI素養是必要的

醫師應該了解大型語言模型是根據大量訓練資料預測可能的文字序列並產生回應,所以病人可能面臨特定風險:(一)雖然回應聽起來權威,但往往不完整、缺乏危機處理協議與問責;(二)心理健康領域中AI使用的研究仍處於起步階段,且進行困難;(三)AI可能提供有害資訊、不能適當回應自殺意念、甚至強化有害行為,或反映社會污名與偏見;(四)病人可能未充分認識隱私風險;(五)過度依賴AI尋求社交連結也可能成為問題,尤其對仍在發展中的年輕人而言;(六)快速的變化使得制定明確臨床使用指引極具挑戰性,因此,持續掌握最新發展是AI素養的重要組成。最具臨床意義的是了解個別病人如何使用AI,並據此做出回應。


臨床醫師的會談技術很重要(表格列出實務方法)

第一,正常化(不批判、肯定)AI用於心理健康,並以開放態度提問,能傳達好奇心,病人較不會感受到不認同。

  • 「很多人都在使用像 ChatGPT 這樣的人工智慧工具,包括用來尋求心理健康支持。你有試過嗎?」

第二,先探索益處再討論疑慮,能展現真誠興趣,並幫助臨床醫師理解AI在病人生活中的具體角色。

  • 「你用它來做什麼?哪些部分對你有幫助?」

第三,先詢問病人的疑慮,再分享臨床醫師的疑慮,能開啟關於潛在風險的對話。

  • 「有沒有哪些回應讓你覺得不太有幫助,或是讓你感覺更糟?」

第四,病人有意願接受建議後再提供資訊(例如AI不準確、偏見、有害回應、污召化)。
  • 「我可以分享幾個需要注意的地方嗎?」
第五,邀請持續對話
  • 「我很希望能持續聽你分享這件事的發展、你覺得還有什麼有幫助的地方,或是出現任何疑慮。這可能有助於我們一起想出可以努力的方向。」
使用隱喻(如「一個知識豐富但有時過度自信的朋友」)能有效傳達AI的效用與限制。最後,表達希望持續討論AI的意願(包括邀請病人帶入相關提示與輸出),能將AI納入持續治療,而非視為一次性篩檢問題。這種方法能將AI使用轉化為治療素材,包括病人被吸引的主題、不確定的回應,以及可能正在學習的內容。

AI對心理健康有好有壞,兼具兩面,取決於情境。若未進行常規評估,臨床醫師就無法觀察病人與這些工具的互動,並可能遭遇無法預測的風險。既然病人已在使用生成式AI進行心理健康相關互動,臨床醫師無需等到有明確研究結果才開始詢問。臨床醫師應以好奇而非批判的態度進行對話,但也要提供資訊、信任,並隨著AI發展持續更新知識和素養。


No comments:

Post a Comment