在当今科技飞速发展的时代,人工智能(AI)在医疗领域的应用越来越广泛,为改善医疗服务带来了诸多机遇。然而,在儿童健康领域,AI 的应用面临着独特的挑战,其伦理问题也日益受到关注。这篇科研综述围绕儿童健康领域 AI 的伦理原则、面临的挑战以及相应的建议展开探讨,并介绍了 PEARL-AI 框架,为推动 AI 在儿童医疗中的合理应用提供指导。
研究背景
儿童不是缩小版的成人,其器官功能和神经发育随年龄变化显著,在 0 - 18 岁的儿科年龄组内,早产儿与青春期后青少年的生理差异巨大。AI 在医疗领域发挥着越来越重要的作用,在儿科,它被广泛应用于放射学、遗传学等多个领域,有望改善全球儿童的医疗保健状况,尤其是为医疗资源有限地区的儿童提供帮助。然而,与成人医学相比,目前缺乏关于儿童健康领域 AI 伦理的全面综述和管理指南,仅有一些针对儿科亚专业的 AI 伦理问题研究,以及部分非医学特定的 AI 伦理指南123。
伦理考量
非伤害原则(Non - maleficence):该原则要求 AI 必须安全且不造成伤害。在 AI 伦理中,提及非伤害原则的频率高于行善原则,这反映出社会对 AI 可能造成伤害的担忧。在胚胎学中,AI 用于胚胎选择和植入前遗传筛查。例如,曾有澳大利亚的胚胎筛查测试因过早用于临床,导致结果与实际不符,部分胚胎被误判丢弃,引发法律诉讼。这警示人们在使用 AI 等新技术时需谨慎,确保其益处大于潜在危害。此外,AI 与全基因组或外显子测序结合,可能引发大规模胚胎基因检测的伦理争议,如涉及疾病或非疾病性状(如智力)的检测。同时,医疗领域的 AI 系统虽常设置 “人在回路” 机制,但可能引入人为偏差,影响公正性;非医疗场景下的 AI,如社交媒体和流媒体平台的推荐算法,会导致儿童屏幕时间过长,影响其认知、神经行为发育和身体健康456。
自主原则(Autonomy):与成年人不同,儿童医疗数据的收集或 AI 设备的使用需家长或法定监护人同意。对于有决策能力的青少年,也应征求他们的同意。Gillick 能力可用于判断 16 岁以下儿童是否有能力同意,其取决于儿童的成熟度和智力水平。儿童有权了解与自身相关事务并自由表达观点,即使年幼的儿童无法给予法律意义上的同意,也应在以适合其年龄的语言告知后,让他们有表达同意或不同意的自由。使用 AI 时,应避免侵犯儿童的 “开放未来权”,防止因 AI 决策不合理限制儿童未来选择101112。
正义与可转移性原则(Justice and transferability):正义指在 AI 获取、数据和利益分配方面的公平性,以及防止偏见和歧视。AI 应使所有儿童受益,但弱势群体在数字世界中处于劣势,技术可能加剧不平等。例如,基于发达国家儿科数据训练的机器学习算法可能不适用于发展中国家儿童,导致预测错误,延续偏见,影响儿童获得公平的医疗保健。然而,AI 也可促进平等,如儿科登月计划(Pediatric Moonshot project)通过创建隐私保护的实时 AI 应用,连接全球儿童医院,共享医疗资源。算法偏见是一个重要问题,不同的公平性定义和指标难以同时满足,合适的定义和指标取决于医疗背景。此外,仅在成人数据上训练的 AI 设备用于儿童时可能表现不佳,因此需考虑 AI 系统在儿科医疗环境中的可转移性131415。
透明度与可解释性原则(Transparency and explainability):透明度包括技术透明度和组织透明度。技术透明度要求向利益相关者公开 AI 的使用情况,提高 AI 设备的可解释性和可理解性;组织透明度则指披露利益冲突。例如,一些 AI 移动健康应用存在诊断与治疗功能结合,却未适当披露开发者与推荐治疗产品制造商之间利益冲突的情况。透明度是实现其他伦理原则的关键,只有保证透明度,才能实现非伤害、自主和信任等原则161718。
隐私原则(Privacy):隐私涉及数据保护和数据安全。根据联合国《儿童权利公约》,所有儿童都享有隐私权,但青少年隐私法律在不同国家和地区存在差异,这给为年长儿童构建 AI 系统带来挑战。青少年常用的健身追踪器、数字健康应用等会收集敏感数据,且手机应用收集的大量识别数据难以去识别化,可能导致敏感健康数据泄露,对儿童造成长期负面影响。此外,去识别化的儿科数据仍有被重新识别的风险,尤其是患有罕见遗传疾病的儿童192021。
可审计性原则(Auditability):AI 系统需通过 “审计追踪” 记录决策过程,包括输入输出值、性能变化和模型状态等。这有助于临床医生了解模型功能和变化,确保 AI 系统的建议符合儿童需求,识别系统错误。出于医疗法律目的,儿科患者 AI 的审计追踪可能需保留至成年(18 岁)后再加 3 年(21 岁)23。
知识管理原则(Knowledge management):儿童健康受多种因素影响,这些因素变化频繁且个体差异大,因此儿科医疗的 AI 模型可能随时间而过时,有效性降低24。
问责原则(Accountability):创建、部署和维护 AI 系统的组织有责任监督其使用并解决相关问题。儿童是弱势群体,可能意识不到 AI 系统的潜在风险,因此家长和临床医生应关注儿童安全。问责制确保 AI 系统的潜在故障不会过度影响个体临床医生,同时保护医疗服务提供者和儿童的权益。此外,临床医生可能对使用 AI 系统给患者带来的伤害承担责任,未来若 AI 成为标准治疗手段,未使用 AI 系统也可能被问责2526。
信任原则(Trust):信任是上述伦理原则的副产品,是 AI 被采用并发挥作用的必要条件,但也不应完全信任 AI 医疗设备2728。
以儿童为中心的医疗人工智能建议
目前,儿童健康专业机构和医学信息学协会均未发布以儿童为中心的医疗 AI 指南或建议。本文基于联合国儿童基金会(UNICEF)的政策指导,结合儿童健康背景提出以下建议:
确保医疗 AI 促进儿童发展和福祉:AI 设计应采用以儿童为中心的方法,包括安全设计、隐私设计和包容设计,优先考虑 AI 系统如何使儿童受益并支持其福祉,同时确保使用 AI 系统对儿童无潜在风险或风险最小化29。
确保在医疗 AI 设计和开发中纳入儿童并为儿童服务:开发用于儿童或影响儿童的 AI 产品时,应采用包容性设计方法,让儿童有意义地参与 AI 政策制定、设计和开发过程。在可行的情况下,应进行 AI 在儿童中的随机对照试验。尽管在儿童中开展临床试验面临诸多挑战,如受试者异质性、伦理问题和商业吸引力低等,但美国国立卫生研究院(NIH)政策强调儿童应参与人类受试者研究,美国放射学院(ACR)也建议在开发适用于儿童的 AI 模型时纳入儿科患者数据,并将 AI 纳入儿童临床实践指南3031。
确保用于儿童医疗的 AI 优先考虑公平性、非歧视性和公平获取:应支持最边缘化的儿童从 AI 系统中受益,数据集应包含不同儿童的数据,以消除对特定儿童群体的偏见和歧视。使用适合的公平性定义和指标对儿童使用的 AI 医疗模型进行公平性测试,对于同时用于成人和儿童的 AI 设备,模型不应偏向成人;对于专为儿童设计的 AI 设备,模型不应歧视任何儿童群体。此外,还应考虑经济和组织价值,确保所有儿童公平获取 AI 驱动的医疗系统,让新的医疗系统对低收入人群保持可及性,减轻欠发达社区医疗服务提供者的负担3233。
确保 AI 医疗系统保护儿童数据和隐私:应采用负责任的数据处理方法,在为 AI 系统开发收集足够儿童数据的同时,尽量减少数据收集以保护隐私和安全。AI 系统应采用隐私设计方法,保护儿童个体和集体的隐私权。儿童应能根据年龄和成熟度控制自己的数据,包括访问、安全共享、理解数据使用和删除数据的权利,家长或监护人则需为年幼孩子的数据使用提供同意,且随着孩子成长,应定期重新审视同意过程3435。
确保儿童在使用医疗 AI 时的安全:AI 系统(包括 AI 移动健康应用)与儿童交互时,不应让儿童接触可能危害其身心健康的内容。儿童和家长应能使用儿童安全工具,如控制内容访问、限制个人信息可见性、限制他人联系和管理位置共享等。此外,应持续评估和监测 AI 对儿童的影响,对 AI 系统进行安全性、稳定性和健壮性测试。在儿科医学中,许多药物和医疗器械存在超说明书使用的情况,AI 系统应用于与训练数据人口特征不同的患者时行为不可预测,因此迫切需要研究和制定 AI 设备在儿科超说明书使用的风险和收益标准,开发儿科 AI 系统时应采用稳健的信息学评估框架,确保设计优先考虑伦理和公平,同时 AI 模型需不断更新和重新训练,采用故障安全设计并进行充分测试,加强网络安全措施以保护儿童数据和 AI 系统安全363738。
确保医疗 AI 对儿童支持透明度、可解释性和问责制:医疗专业人员、家长和儿童有权了解 AI 系统的使用、决策过程和局限性,AI 系统应使用适合儿童年龄的语言进行解释,并保护儿童权利。AI 治理框架应定期审查和更新,建立 AI 监管机构监测和纠正侵犯儿童权利的行为。医生在使用 AI 系统前,应确定其是否经过儿科患者评估,若未评估则应谨慎使用并告知家长和有能力理解的儿童。AI 开发者应使用可解释的 AI 构建儿童医疗系统,尤其是对于具有深远影响的不可逆决策,同时应提供报告和反馈机制,及时处理相关问题394041。
赋予政府和企业 AI 与儿童权利的知识:政策制定者、管理者和 AI 系统开发者应了解 AI 和儿童权利,致力于以儿童为中心的 AI 并将其付诸实践42。
支持政府和企业为以儿童为中心的医疗 AI 创造有利环境:政府和企业应投资基础设施建设,缩小数字鸿沟,促进 AI 利益的公平分享。提供资金和激励措施支持以儿童为中心的 AI 政策和研究,加强国际合作,共享资源和方法,推动以儿童为中心的 AI 系统发展4344。
PEARL - AI 框架
基于对儿童健康领域 AI 伦理原则的全面回顾和推进以儿童为中心的医疗 AI 的建议,本文提出了儿科人工智能伦理建议清单(PEARL - AI)框架。该框架基于专家意见,采用 C 级证据质量构建,为临床医生、学者、医疗管理人员和 AI 开发者提供了实用的行动指南。
系统的儿童中心方法:PEARL - AI 框架以儿童为核心,在 AI 生命周期的各个阶段支持伦理决策,优先考虑儿童健康、权利和福祉。
积极的伦理监督:该框架支持在 AI 开发过程中尽早识别和解决潜在的伦理问题,包括设计对儿童敏感的算法和界面、评估 AI 模型对儿童福祉的潜在风险、让广泛的利益相关者参与设计和评估过程,以及强调在现实世界儿科环境中持续测试和验证 AI 系统。
生命周期伦理整合:PEARL - AI 框架将伦理考量整合到 AI 生命周期的每个阶段,包括确保 AI 项目解决真正的儿科医疗需求、在数据收集和准备阶段注重透明度和知情同意、在算法开发中优先考虑公平性和可解释性、在测试和部署阶段进行严格测试,以及在部署后建立监测机制以检测和纠正问题。通过这些措施,确保 AI 在儿科医疗中不仅满足技术和临床标准,还能积极保护和促进儿童的最佳利益,负责任地利用 AI 在儿童健康领域的变革潜力454647。
结论
这篇综述详细阐述了儿童健康领域使用 AI 的伦理原则和挑战,包括非伤害、行善、自主、正义与可转移性、透明度与可解释性、隐私、可靠性、可审计性、知识管理、问责和信任等原则。基于 UNICEF 的政策指导,提出了以儿童为中心的医疗 AI 建议,并介绍了 PEARL - AI 框架。该框架为 AI 开发者和临床医生提供了重要参考,有助于确保 AI 在儿童医疗保健中的应用符合伦理标准,保障儿童的权利和福祉,推动 AI 在儿童健康领域的健康发展。