AI 健康問診工具真的可靠嗎?從 ChatGPT Health 分流測試失誤談數位健康的安全邊界與自我照護新習慣

AI 健康問診工具真的可靠嗎?從 ChatGPT Health 分流測試失誤談數位健康的安全邊界與自我照護新習慣

「我需要去急診嗎?」「胸悶但還能走路,要不要先觀察?」這類關於「就醫分流(triage)」的搜尋,在台灣幾乎每天都有人問。隨著 ChatGPT Health 等消費級健康工具在全球擴散,許多人把它當成快速的第二意見與症狀判讀入口。然而近期兩組獨立研究以結構化情境測試發現:這類 AI 在「中間嚴重度」表現尚可,但在最需要精準判斷的兩端——真正的急症與明顯輕症——反而更容易做出危險決策,甚至在自殺意念的警示機制上出現不一致。這提醒我們:AI 可以是健康管理的加速器,卻不該被誤用成「線上急診分流員」。

AI 分流為何在「最關鍵的兩端」失準?

研究以臨床醫師撰寫的情境(涵蓋多種科別與嚴重度)去「壓力測試」AI 的分流建議,結果呈現一個值得警惕的規律:當症狀落在「教科書等級」的典型急症,例如中風或嚴重過敏反應,AI 較容易做出正確判斷;但遇到更複雜、需要綜合線索與風險思維的急症(如代謝失衡、呼吸逐步惡化的前兆),卻常把人導向「可等 24–48 小時再評估」或一般門診,造成「低估急迫性(under-triage)」的風險。反過來,對於不少本可居家照護或先觀察的輕症,AI 又傾向推向立即就醫,形成「高估急迫性(over-triage)」:這不只增加個人焦慮與醫療支出,也可能在急診壅塞時排擠真正需要搶救的個案。

「錨定偏誤」會讓 AI 跟著你的朋友一起看走眼

更值得台灣使用者留意的是:當情境加入「家人朋友的安撫」或「先入為主的判斷」時,AI 的建議可能被推向較不緊急的方向。你可能聽過「他只是太累」「年輕人不會心臟病」這類話;在研究中,這種外部敘事會讓分流結果在邊界案例出現明顯偏移,而且多數是往「降低緊急度」移動。對一般人而言,這幾乎等同把最需要謹慎的時刻交給了最容易被情緒語氣、敘事框架影響的系統。這也呼應了 AI 的本質:它擅長生成看似合理的文字,但不等於具備臨床風險控管的責任邏輯。

心理健康更敏感:危機警示不穩定,反而可能造成「錯失」或「驚嚇」

在自殺意念相關情境中,研究觀察到危機介入提示(例如引導至求助資源)的觸發不一致:有些較低風險表述被過度觸發,有些明顯危險的描述卻未必出現提醒。另一篇針對 ChatGPT 在精神健康應用的討論也指出:聊天機器人常缺乏像專業人員那樣「追問、澄清、排除」的互動能力,容易停留在通用建議,甚至把生活習慣建議放在需要優先評估風險的情境前面。對使用者來說,這種不穩定可能帶來兩種後果:一是高風險者被低估而延誤求助;二是低風險者被嚇到、產生污名感或不必要的焦慮。基於台灣醫療法規與倫理,任何數位工具都不應被視為診斷或治療替代;心理危機更應以在地資源與專業介入為主。

把 AI 變成「健康管理助理」:更安全、也更有用的使用方式

與其問 AI「我是不是得了什麼病」,更務實的做法是把它當成健康資訊整理器與自我照護教練,協助你在就醫前後更有效率。以下是更符合風險控管的用法:

  • 把問題改成「我需要提供醫師哪些資訊?」:例如症狀開始時間、誘發因素、疼痛等級、是否伴隨呼吸困難、意識改變等。
  • 請它幫你列出「紅旗警訊」:例如胸痛合併冒冷汗、呼吸急促、嘴唇發紫、劇烈頭痛合併神經學症狀等(出現應立即尋求急診/119)。
  • 做「運動與生活型態」的可執行計畫:如每週有氧與肌力分配、久坐中斷策略、睡眠作息檢核、壓力調節練習。
  • 整合穿戴裝置資料做趨勢回顧:例如心率、睡眠、活動量的「長期變化」,用於與醫師討論,而非用來自我下診斷。

特別提醒:在台灣,AI 產出的內容屬健康資訊參考,不能取代醫師診療。若你正在搜尋「急診要不要去」「胸悶怎麼辦」「過敏呼吸困難」「血糖很高怎麼處理」「憂鬱想不開怎麼辦」等關鍵字,請把 AI 的回答視為整理資訊的起點,而不是決策終點。

一張表掌握風險:哪些情境適合用 AI,哪些情境請直接就醫

要把數位健康工具用得安全,核心是「先分清它能做什麼、不能做什麼」。下表提供一個實務判準,幫你把 AI 放在正確的位置:

使用情境AI 較適合的角色你該怎麼做(台灣在地建議)
慢性病日常管理(血壓、血糖、體重、運動)紀錄整理、趨勢提醒、生活計畫生成用穿戴/APP 做長期追蹤;回診時帶數據與問題清單,交由醫師判讀
一般輕症自我照護(感冒、肌肉痠痛、輕微腸胃不適)提供自我照護清單與觀察重點以「何時應就醫」為主;若症狀加劇、持續不退或有慢性病/高齡風險,改採就醫
疑似急症(胸痛、呼吸困難、意識改變、單側無力、嚴重過敏)不適合做分流決策優先急診或 119;不要等待 AI 文字回覆來決定
自殺意念、嚴重焦慮恐慌或他害風險不適合承擔危機守門立即求助身邊可信任者與專業資源;台灣可撥打 1925(安心專線)或 1995(生命線),緊急狀況請 119/110

當 AI 在急症分流與危機守門出現不穩定時,最重要的是建立「人類優先」的安全路徑:危急先救命、再談資訊;需要支持先連結資源、再談建議。

下一步:把「預防」做厚,把「分流」交還給專業

這些研究不是要否定 AI 健康科技,而是提醒產業與使用者:真正的價值不在取代醫療決策,而在提升預防與照護流程的效率。對個人而言,最可行的延伸行動是把科技用在「可控、可驗證、可追蹤」的領域——例如以步數、心率區間訓練、阻力訓練進度、睡眠規律、壓力管理等指標,打造 8–12 週的身心健康計畫;同時建立自己的「紅旗清單」與緊急聯絡流程。對產業而言,未來的消費級健康 AI 若要走得更遠,必須在台灣與各地法規框架下,強化風險分級、情境測試、與在地醫療資源的銜接設計。

如果你正打算開始一段更有系統的健康生活,建議今天就做三件事:選一個你願意長期追蹤的指標(例如每週運動分鐘數)、設定一個可達成的運動目標(例如每週 150 分鐘中等強度有氧加 2 次肌力)、並把「出現哪些症狀要直接就醫」寫進手機備忘錄。把 AI 當成提醒與整理的工具,把關鍵決策留給專業與緊急系統,你會更安全,也更可能真正把健康科技變成改變生活的助力。

更多推薦:

Share