-
生物通官微
陪你抓住生命科技
跳动的脉搏
斯坦福大学医学研究发现,人工智能可以帮助研究人员进行医疗图表审查
【字体: 大 中 小 】 时间:2024年12月24日 来源:AAAS
编辑推荐:
斯坦福大学医学院的研究人员训练了一个大型语言模型来阅读医学图表,寻找多动症儿童在使用新药物时得到正确后续护理的迹象。
斯坦福大学医学院(Stanford medical)的研究人员开发了一种人工智能工具,可以阅读电子病历中的数千份医生笔记,并发现趋势,提供医生和研究人员希望能改善护理的信息。
通常情况下,寻求有关护理问题答案的专家需要仔细阅读数百份医疗图表。但新的研究表明,大型语言模型——能够在复杂的书面语言中找到模式的人工智能工具——可能能够接管这项忙碌的工作,而且他们的发现可能具有实际用途。例如,人工智能工具可以监控患者的图表,以发现药物之间危险的相互作用,或者帮助医生识别对特定治疗反应良好或不良的患者。
12月19日在线发表在《儿科学》(Pediatrics)杂志上的一项研究描述了这一人工智能工具,旨在从医疗记录中找出患有注意力缺陷多动障碍的儿童在服用新药后是否得到了适当的后续护理。
该研究的主要作者、儿科助理教授Yair Bannett博士说:“这个模型使我们能够识别出ADHD管理方面的一些差距。”
该研究的资深作者是医学博士海蒂·费尔德曼,她是发育和行为儿科学的Ballinger-Swindells教授。
Bannett指出,研究小组利用该工具的洞察力来确定策略,这些策略可以改善医生对多动症患者及其家人的随访方式,并补充说,这种人工智能工具的功能可以应用于医疗保健的许多方面。
对于人类来说,这是一项艰巨的任务,对于人工智能来说,这是一件轻而易举的事情
电子医疗记录包含实验室结果或血压测量等信息,其格式便于计算机在许多患者之间进行比较。但是其他的一切——任何医疗记录中80%的信息——都在医生写的关于病人护理的笔记中。
虽然这些笔记对下一个阅读病人病历的人来说很方便,但它们自由的句子对整体分析来说是一个挑战。这些缺乏组织的信息在用于研究之前必须进行分类,通常是由阅读笔记寻找具体细节的人进行分类。这项新研究着眼于研究人员是否可以使用人工智能来完成这项任务。
该研究使用了1201名6至11岁儿童的医疗记录,这些儿童是同一医疗保健网络中11个儿科初级保健实践的患者,并且至少有一种ADHD药物的处方。这类药物可能有破坏性的副作用,比如抑制孩子的食欲,所以医生在病人第一次使用这些药物时询问副作用并根据需要调整剂量是很重要的。
该团队训练了一个现有的大型语言模型来阅读医生的笔记,寻找儿童或他们的父母在服用新药的前三个月是否被问及副作用。该模型是根据研究人员审查的501个音符进行训练的。研究人员将任何提到有无副作用的笔记(例如,“食欲减退”或“体重没有减轻”)都视为进行了随访,而没有提到副作用的笔记则被视为没有进行随访。
这些人工审阅的笔记在人工智能中被称为模型的“基础真相”:研究团队使用411个笔记来教模型关于副作用的查询是什么样子的,剩下的90个笔记来验证模型是否能准确地找到这样的查询。然后,他们手动检查了另外363个音符,并再次测试了模型的性能,发现它正确分类了大约90%的音符。
一旦大型语言模型运行良好,研究人员就用它来快速评估患者图表中的所有15628个笔记,如果没有人工智能,这项任务将需要7个多月的全职工作。
从分析到更好的护理
从人工智能分析中,研究人员获得了他们在其他情况下无法发现的信息。例如,人工智能发现,一些儿科诊所在与患者父母的电话交谈中经常询问药物副作用,而其他诊所则没有。
班内特说:“如果你不像我们那样在16000张纸币上部署这个模型,你就永远无法检测到这种情况,因为没有人会坐在那里做这件事。”
人工智能还发现,儿科医生询问某些药物的后续问题的频率更低。患有多动症的孩子可以服用兴奋剂,或者不太常见的非兴奋剂药物,如某些类型的抗焦虑药物。医生不太可能询问后一类药物。
班内特说,这一发现为人工智能的局限性提供了一个例子:它可以检测到病人记录中的一种模式,但不能解释为什么会出现这种模式。
“我们真的必须和儿科医生谈谈,才能理解这一点,”他说,并指出儿科医生告诉他,他们在处理兴奋剂副作用方面有更多经验。
研究人员说,人工智能工具可能在分析中遗漏了一些关于药物副作用的询问,因为一些关于副作用的对话可能没有记录在患者的电子病历中,而且一些患者接受了专业护理——比如精神病医生——这在本研究中使用的医疗记录中没有被跟踪。该人工智能工具还错误分类了一些医生关于其他疾病(如痤疮药物)处方副作用的笔记。
引导AI
Bannett说,随着科学家们为医学研究构建更多的人工智能工具,他们需要考虑这些工具哪些做得好,哪些做得不好。有些任务,比如整理成千上万的医疗记录,是经过适当训练的人工智能工具的理想选择。
他说,其他的,比如理解医学领域的伦理陷阱,将需要人类仔细思考。Bannett及其同事最近在《医院儿科学》上发表的一篇社论解释了一些潜在的问题以及如何解决这些问题。
“这些人工智能模型是根据现有的医疗数据进行训练的,我们从多年来的许多研究中了解到,医疗保健存在差异。”他说,研究人员需要考虑如何在构建人工智能工具和投入使用时减轻这种偏见,并补充说,只要采取正确的谨慎措施,他对人工智能帮助医生更好地完成工作的潜力感到兴奋。
他说:“每个病人都有自己的经历,临床医生也有自己的知识库,但有了人工智能,我可以把大量人群的知识放在你的指尖。”他说,例如,人工智能最终可能会帮助医生根据患者的年龄、种族或民族、基因特征,以及各种诊断结果,预测患者是否可能因某种特定药物而产生不良副作用。“这可以帮助医生做出个性化的医疗管理决策。”
知名企业招聘