求医靠AI? 台大研究:恐危及生命
不少人习惯凡事先问ChatGPT等生成式AI,台大公卫学者近期完成全球首项“生成式AI” 在中风照护资讯提供上表现评估,发现临床表现几乎都低于60分,提醒民众别把AI当医师,恐危及生命。
台大公卫学院副教授、玉山青年学者李达宇7日在成果发表会中分享,他小时候,医师是寻求健康照护答案的主要资讯来源,后来进入网际网路时代,开始习惯上网搜寻,如今科技突飞猛进,生成式AI成了不少人的生活借问站。
李达宇指出,这篇研究主要在谈慢性病,因为病人就算一年看30天病,换言之仍有高达335天时间必须自我照护,过去他照顾生病妈妈,便曾因妈妈出现皮肤问题,而寻求ChatGPT帮助。
由于许多病人使用ChatGPT等工具,询问中风复原及相关症状卫教资讯。李达宇说明,研究团队以ChatGPT、Claude、Gemini3大主流语言模型,模拟多种贴近临床情境的中风照护场景,运用多种提示设计策略,全面评估准确性、同理性、可操作性与安全性等面向的表现。
三大生成皆不合格
研究团队发现,3大语言模型在个提示工程方法(ZSL、COT、TOT)下的临床整体表现,皆低于合格门槛60分,少数情境可略高于60到65分。此外,这3种AI在“提供患者可直接采取行动的建议”方面表现不一,尤其在中风治疗等高风险阶段,错误或不完整回应时有所见。
这项研究在今年7月刊登于“npj 数位医学”(Digital Medicine)期刊,李达宇的结论是,“生成式AI在一般健康资讯传递上也许具有潜力,但在中风这类即时且需专业介入的情境上,可靠性仍有待大幅提升。”
李达宇说,在高风险的医疗照护中,即使是微小的错误,也可能付出生命代价,因此在AI发展过程中,教导病人“如何安全使用AI”,与技术发展同等重要。
就算是日常的保健资讯,李达宇提醒,当使用语言模型时,不妨加入自己的性别、年龄、家族病史、环境暴露情况、用药与就医资讯,以提高健康资讯的可信度。
台大医院环境及职业医学部主治医师陈保中呼吁,不能把AI当医师,AI只能作为辅助工具,病人可以询问AI自己该看哪一科,而不是靠AI做出医疗决定。













