谷歌AI医疗聊天机器人 通过美国医师资格考

立即订阅亚视新闻 YouTube,即时掌握时事发展。

根据7月12日的一项同行评审研究,谷歌(Google)的人工智能(AI)医疗聊天机器人在难度极高的美国USMLE执业医师资格考试中及格,但其答案仍远比不上人类医师。

法新社报导,去年,ChatGPT由谷歌竞争对手Microsoft(微软)资助的OpenAI开发上市,为科技巨头在快速发展的人工智能领域竞争拉开序幕。

AI能否解读扫描结果 引起热议

尽管对于人工智能未来的可能性和危险性已经引起广泛讨论,但在健康领域,这项技术已经展现了具体进展,包括能够像人类一样解读某些医学扫瞄。

去年12月,谷歌首次在学术著作预印本中,展示了回答医学问题的人工智能工具Med-PaLM。与ChatGPT不同,谷歌尚未公布于众。

这家美国科技巨头说,Med-PaLM是第一个通过美国医师执照资格考试(USMLE)的大型语言模型,该模型的人工智能技术透过大量人类生成的文本训练。

这项考试的受试者为美国医学生和受训医师,及格分数约为60分。

ChatGPT二月接近及格

在二月,一项研究指出ChatGPT已经达到及格或接近及格的结果。

在7月12日发表于《自然杂志》(journal Nature)的同行评审研究中,谷歌研究人员表示,Med-PaLM在具有美国USMLE执业医师资格考试风格的选择题中取得67.6分。

该研究写道:“Med-PaLM的表现令人鼓舞,但仍比临床医师差。”

为了辨识并减少“错觉”(用于称作AI模型提供错误资讯的情况),谷歌说已经开发一套新的评估指标。

谷歌研究人员及这份新研究报告的主要作者辛格霍(Karan Singhal)告诉法新社,团队已使用这一套评估指标测试他们新版本的模型,并取得了“非常令人兴奋的”结果。

Med-PaLM 2以86.5分过关

一份发布于5月的学术著作预印本中的研究指出,Med-PaLM 2在美国USMLE执业医师资格考试中取得86.5分,比前一个版本提高了近20%。

未参与研究的英国巴斯大学(University of Bath)电脑科学家达芬波特(James Davenport)说,这些人工智能医疗聊天机器人正面临一个棘手问题,“但人们故意视而不见”。

医学问题与实际医学不一样

他表示,“医学问题与实际医学”间存有很大的差异,医学实际上包含诊断和治疗真正的健康问题。

英国利兹大学(Leeds University)人工智能专家寇恩(Anthony Cohn)说:“错觉大概会永远是这些大型语言模型的问题,因为他们具有统计学上的本质。”

因此,寇恩指出:“这些模型应该始终被视为辅具,而非最终的决策者。”

相关新闻:

你可能也喜欢

Back to top button