近年来,人工智能(Artificial Intelligence,AI)发展迅猛,广泛渗透到生活的各个方面,从虚拟助手到自动驾驶汽车,AI 在医学和生理学领域也发挥着越来越重要的作用,辅助诊断、医疗管理以及决策系统等。《欧洲生理学杂志》的这一特刊,汇集了关于 AI 在生理学和医学领域的最新研究成果,从技术、应用和伦理多个视角进行探讨,展现了 AI 在这些领域的巨大影响力。
生成式 AI 是当前 AI 领域的热门话题,其中 OpenAI 的大型语言模型 ChatGPT 最为人熟知。生成式 AI 能基于大量数据训练生成文本或图像数据。在生理学领域,其应用潜力巨大。
Umesh 等人指出,生成式 AI 在数据增强、数据协作方面有诸多机会,比如匹配体内外研究数据,在临床决策中(如选择合适的癌症治疗方案、个性化医疗)发挥作用。他们还介绍了生成对抗网络(Generative Adversarial Networks,GANs)和扩散模型等先进模型的技术特点,以及常用的评估指标。但由于生理数据的复杂性,如表格数据存在生理复杂性、关联表格和多样特征类型等问题,这给生成式 AI 处理表格数据带来了挑战。尽管如此,临床研究、个性化医学和医疗政策等方面仍能从生成式 AI 生成的数据中受益。
可解释人工智能(Explainable Artificial Intelligence,XAI)旨在开发能为预测或决策提供透明、易懂解释的机器学习工具,这对于增强用户对 AI 的信任、明确责任以及促进理解至关重要。XAI 可通过全局解释(理解整体决策过程)和局部解释(识别影响特定决策的关键输入特征)等可视化技术,揭示输入如何转化为输出。
Finzel 从更宏观的角度对 XAI 进行了综述。XAI 致力于让 AI 变得可理解、可解释,具有验证意义。Finzel 介绍了 XAI 的方法学以及该领域的当前研究成果,并结合 85 篇论文,回顾了 XAI 的关键主题,概述了在生理学研究中应用的现有方法,通过实际医学案例探讨了已解决和未解决的挑战。她还提出了两个未来发展方向:一是开发可信赖的 AI 用于综合生理学研究;二是将生理学专业知识融入 XAI 开发,促进人与 AI 的有效合作。Finzel 认为 XAI 在促进知识发现、将人类专业知识与模型和数据融合方面具有巨大潜力,有望推动生理学研究的发展。同时,生理学知识也能助力 XAI 生成更有意义的解释,最终实现以人类为中心的 AI 决策解释,促进 AI 在生理学和医学领域的更紧密融合。
Boge 和 Mosig 关注的是如何解释人工智能在生物医学决策中的作用,并使其被认为是可信的,尤其是在医学诊断方面。他们通过航海时代的例子说明了可解释性的必要性,并列举了病理学中基于 AI 的案例,如结直肠癌诊断。他们全面概述了可解释性的主要方面,以及因果关系与解释、稳健性和可信度之间的关系。此外,还提供了将科学解释与生物医学中的 AI 相结合的指导方针。他们指出,未来还需进一步研究如何确定特定医学应用中有力且有用的假设解释,以及特定 AI 系统所需的解释程度,这需要根据具体情况进行评估。虽然已有研究原则上确定了可解释的解释,但在实践中尚未对这些解释进行系统验证。他们以计算病理学区分结直肠组织中微卫星稳定和微卫星不稳定肿瘤为例,探讨了科学解释的潜力,并权衡了这种方法的成本和收益。他们认为,可靠的 AI 系统需要量身定制的解释,特别是在出现无法解释的错误时,科学解释方法为实现这一目标提供了途径。
随着 AI 技术的广泛应用,伦理问题不容忽视。Vandemeulebroucke 指出,医疗和医学领域的人工智能系统有望提高医疗质量、效率并降低成本,但隐私、权力动态和偏见等问题依然存在。现有的伦理方法虽提供了一定框架,但往往局限于特定场景,忽视了更广泛的全球和环境影响。为解决这些问题,他提出了多层次伦理方法,涵盖个人、组织、社会、全球和历史层面,以确保 AI 系统能负责任地满足普遍需求。
六、结语
本特刊全面展示了 AI 在医学和生理学领域的诸多开创性进展。从数字组织病理学的技术革新,到生成式 AI 的多元应用;从可解释人工智能的深入探索,再到伦理层面的思考,AI 在这些领域正发挥着日益重要的作用。尽管在发展过程中面临数据质量、可解释性、信任度以及伦理等诸多挑战,但 AI 为医学和生理学研究带来的机遇和变革是不可忽视的。未来,随着技术的不断进步和研究的深入,有望克服这些挑战,实现 AI 与医学、生理学更深度的融合,为人类健康事业带来更多福祉。