近年,AI 聊天機械人成為唔少人處理情緒同身心疑慮嘅第一站。根據英國 Mental Health UK 於 2025 年嘅調查,超過三分之一英國居民曾使用 AI 來支援自己嘅心理健康或身心狀態。📱
呢個現象反映嘅,唔單止係科技進步,而係一個更深層嘅現實:當人感到脆弱、孤單、又未必即時搵到專業支援時,AI 成為一個「隨時在線、唔會拒絕你」嘅出口。
不過,牛津大學最新研究就對呢種趨勢提出警告。
研究指出,AI 聊天機械人在提供醫療與健康建議時,經常出現不準確同不一致嘅情況,而呢種混雜好壞資訊嘅回應,反而令使用者更難判斷應該相信邊一部分。研究主導醫生 Rebecca Payne 直言,對部分人而言,向 AI 詢問症狀「could be dangerous」,尤其係當使用者本身已經感到焦慮或不安時。
研究團隊設計咗多個情境,例如嚴重頭痛,或者一位長期感到極度疲倦嘅新手媽媽。結果顯示,使用 AI 嘅一組人,往往未能正確判斷問題嚴重性,亦較難決定應否求醫或前往急症室。😟
問題唔只在於 AI「有冇答錯」,而係使用者本身唔知道應該點樣提問,亦唔知道應該點樣理解答案。
研究資深作者 Adam Mahdi 指出,AI 雖然能夠提供醫療資訊,但「人類其實好難從中取得真正有用嘅建議」。因為人在分享身心狀況時,往往係逐步透露、選擇性講述,甚至無意中遺漏重要細節。當 AI 列出幾個可能狀況,使用者反而要自行猜測「邊一個最似自己」,而呢一步,正正係最容易出現誤判嘅地方。
從心理健康角度睇,呢種互動模式其實存在風險。當一個人本身已經感到困惑、焦慮或情緒低落時,模糊不清嘅資訊未必會帶來安心,反而可能加重自責同不確定感。🧠
「係咪我問得唔好?」
「點解每次答案都唔同?」
呢啲內在對話,有時比原本嘅問題更消耗心理能量。
另外,耶魯醫學院精神科副教授 Amber W. Childs 亦提醒,AI 是基於現有醫療資料訓練,而呢啲資料本身已經包含多年累積嘅偏見。換言之,AI 可能無意中重複醫療體系中對某些群體、情緒或症狀嘅低估與忽視。她形容,AI 的診斷能力「只會同人類臨床醫生一樣不完美」。
當然,研究亦承認,AI 並非完全冇價值。隨着 OpenAI、Anthropic 等公司推出專為健康用途設計嘅版本,未來技術有機會變得更安全、更精準。但專家普遍認為,前提係必須配合清晰監管、醫療指引同明確界線。⚖️
從心理健康層面嚟講,AI 或許可以成為輔助工具,例如整理資訊、記錄感受,或者提醒人尋求專業協助;但佢唔應該成為唯一傾訴對象,更唔可能取代真正理解人類情緒嘅存在。
當一個人最需要被接住嘅時候,真正重要嘅,唔只係「有人即刻回覆」,而係「有人聽得明你」。🤍
如果你發現自己愈來愈依賴向 AI 詢問情緒或身心狀況,呢本身,已經係一個值得被溫柔對待、而唔係被忽略嘅訊號。