歡迎回來

網頁已經閒置了一段時間,為確保不會錯過最新的內容。請重新載入頁面。立即重新載入

查看更多「香港好去處」精彩內容

07
七月
紅磡香港體育館|FWD富衛保險呈獻 張天賦 E=MC² 演唱會2026 紅磡香港體育館|FWD富衛保險呈獻 張天賦 E=MC² 演唱會2026
紅磡香港體育館|FWD富衛保險呈獻 張天賦 E=MC² 演唱會2026
推介度:
07/07/2026 - 10/07/2026
09
三月
沙田香港文化博物館|梁醒波回顧展覽:詼諧惹笑「丑生王」 沙田香港文化博物館|梁醒波回顧展覽:詼諧惹笑「丑生王」
沙田香港文化博物館|梁醒波回顧展覽:詼諧惹笑「丑生王」
推介度:
09/03/2026 - 24/04/2028

醫療AI能否判生死?ChatGPT能讀懂病歷,卻讀不懂病人!拆解虛擬醫生背後的誤診與私隱風險!

醫療AI能否判生死?ChatGPT能讀懂病歷,卻讀不懂病人!拆解虛擬醫生背後的誤診與私隱風險!

方展策
智城物語

  在AI時代下,醫療界正經歷一場由AI驅動的巨大變革。醫療AI逐漸普及,不但賦予病人解讀艱澀檢驗報告的自主權,更可以幫助醫護人員加快急症室分診、甚至實現過往難以企及的早期癌症監測。可是,當我們將最私密的病歷、最焦慮的健康疑問交付給AI後,一個核心問題隨即浮現:目前AI是否具備足夠能力來承擔人類生死的重量?

 

Read More

醫療AI大戰爆發!ChatGPT Health硬撼Claude for Healthcare,解構OpenAI、Anthropic爭霸策略!

蘋果AI醫生來襲!AI搭配Apple Watch實現預防性健康管理!Health+顛覆全球醫療生態?

 

急症診斷 AI 表現更勝人類

 

  哈佛醫學院與旗下貝斯以色列女執事醫療中心的研究團隊,2026年2月在《科學》期刊發表的論文披露,在急症室初步分診情境中,AI透過電子病歷作出診斷:針對76名進入急症室的患者所進行的測試中,OpenAI o1模型在67%的案例中做出正確診斷。相較之下,對照組的兩位人類醫生診斷準確率分別為55%和50%而已。

 

  然而,當 AI 走出醫學專家的操作情境,直接與病人互動時,其診斷能力卻呈現斷崖式下跌。由牛津大學里貝卡·佩恩(Rebecca Payne)博士主導的研究,邀請1,300名英國成年人模擬10種常見的健康問題(如飲酒後頭痛、產後疲勞等),隨機分配使用 GPT-4o等主流模型或搜尋引擎作醫療資訊來源。2026年2月在《自然醫學》期刊發表的研究結果顯示,AI模型診斷準確率低於 34.5%;在判斷是否需就醫的決策上,準確率亦不足44.2%,相比使用搜尋引擎的對照組沒有明顯優勢。

 

醫療AI能否判生死?ChatGPT能讀懂病歷,卻讀不懂病人!拆解虛擬醫生背後的誤診與私隱風險!

佩恩(右)提醒,即使AI模型再先進,只要輸入資訊不足、理解出現偏差,誤診風險依然無法消除。(圖片來源:X.com@rcgp帳戶)
人機溝通斷層引發誤判風險

 

  這背後的癥結並非 AI醫學知識不足,而是人機互動的溝通斷層。在真實情況下,病人往往無法準確說明病情細節,也未必能分辨 AI 回應中哪些建議真正合用。佩恩指出,當症狀資訊不完整、用戶理解又出現偏差時,再先進的 AI 模型也可能導向錯誤決策。

 

  更令人擔憂的是,AI 在應對不明顯疾病時的遲鈍。西奈山伊坎醫學院針對 OpenAI 於2026年1月推出的 ChatGPT Health 進行測試,發現該系統在評估嚴重的醫療緊急事故時,出現超過半數的誤判。在人類醫生判定為病情緊急的案例中,ChatGPT Health 低估了52%病例的危險性。例如,面對患有糖尿病酮症酸中毒或即將發生呼吸衰竭的患者,AI 竟建議在24至48小時內尋求評估,而非立刻前往急症室。這證明 AI 在缺乏即時臨床判斷與風險分級機制前,尚不足以成為獨當一面的「虛擬醫生」。

 

醫療AI能否判生死?ChatGPT能讀懂病歷,卻讀不懂病人!拆解虛擬醫生背後的誤診與私隱風險!

羅德曼(右二)預估,未來十年醫療決策模式可能逐步從單一醫生主導,走向由醫生、病患與AI共同參與的三方照護模式。(圖片來源:哈佛醫學院官網)

 

AI重塑醫療資訊獲取渠道

 

  儘管現階段的醫療 AI 充滿瑕疵,但無可否認的是,它的出現能夠填補現有醫療體系的缺口。對於被高昂醫療費用或複雜檢驗報告困擾的患者而言,AI 正在扮演前所未有的「醫療夥伴」角色。隨著 OpenAI和Anthropic推出專攻健康領域的ChatGPT Health與Claude for Healthcare,用戶可以與了解自身症狀和病史的 AI 進行對話,獲取量身打造的醫療建議;預計到2027年,AI更會跟Apple Watch等智能手錶作深度整合,為病患提供全天候的個人化健康指導。

 

  對醫療業者而言,AI 展現強大的數據處理效率,能精準地找出異常之處,為百年醫學走向開闢新的可能性。譬如俄勒岡健康與科學大學的研究團隊,基於北美逾300名自願參與者的12,523段錄音,分析音調、音高與清晰度等特徵,從中揪出聲帶的細微異常,這為早期喉癌的非入侵性檢測提供全新的診斷路徑。

 

AI 診斷缺乏責任歸屬框架

 

  不過,荷蘭馬斯垂克大學生物學者大衛·肖(David Shaw)強調,大家只適宜將AI視為輔助工具,過度信賴 AI 問診可能引致誤判和延誤治療。哈佛醫學院助理教授亞當‧羅德曼(Adam Rodman)也指出,目前 AI 診斷缺乏正式的責任歸屬框架,病人仍傾向由人類醫生作最後判斷。若用戶與醫療業者缺乏足夠的風險意識,將AI當作無所不能的「虛擬醫生」,勢必釀成無可挽回的臨床災難。

 

  在商業利益驅使下,醫療AI 的快速發展或許會威脅病人私隱。OpenAI 推出的企業版AI工具 OpenAI for Healthcare,因簽署了商業夥伴協議而受到美國《醫療保險流通與責任法案》(HIPAA)的嚴格規管,但面向消費者的ChatGPT Health卻不受此限。這種高度相似的命名策略極易造成用戶混淆,令消費者誤以為兩者同等安全。

 

醫療AI能否判生死?ChatGPT能讀懂病歷,卻讀不懂病人!拆解虛擬醫生背後的誤診與私隱風險!

OpenAI for Healthcare是專供醫療機構使用的付費方案,運作符合HIPAA私隱法規要求,惟名稱相近的ChatGPT Health卻不受此法例規管。(圖片來源:OpenAI官網)

 

AI構成病人私隱外洩危機

 

  法律學者警告,一旦用戶將個人病歷、基因結果或精神疾病史輸入AI,便等於自願放棄HIPAA 的保護傘。在2026年去監管浪潮的背景下,美國聯邦優先權政策弱化了州級私隱法例,讓AI公司可以在法律灰色地帶大規模攫取病者數據。這些集中儲存於伺服器的龐大病歷資料,將成為黑客眼中極具價值的「數據蜜罐」,只需突破單一入口即可大舉獲利。

 

  此外,AI 可以透過飲食紀錄、步數等看似低敏感度的資料,推斷出用戶患上腦退化症風險、懷孕狀態等高度私密資訊。問題在於,這類由演算法分析而來的「衍生數據」,在現行法例下往往權屬不清。用戶既無從得知其存在,又難以掌握它們被誰保存、使用或轉售。由是觀之,AI 雖然是強大的醫學解釋員與診斷工具,但絕對不能越俎代庖,成為最後的治療決策者。唯有當監管法規追上AI發展速度,且人類醫生持續堅守安全底線時,醫療 AI 方能真正成為守護生命的助力。

 

Add a comment ...Add a comment ...
最新
人氣
etnet TV
財經新聞
評論
專題透視
生活
DIVA
健康好人生
香港好去處

Comment

暫無回應

最新
人氣
etnet TV
財經新聞
評論
專題透視
生活
DIVA
健康好人生
香港好去處