大型语言模型在公共卫生危机管理中的挑战、偏见与治理路径探析

《Disaster Medicine and Public Health Preparedness》:Challenges, Biases, and Solutions in Using Large Language Models Like ChatGPT for Public Health Communication and Crisis Management

【字体: 时间:2025年12月03日 来源:Disaster Medicine and Public Health Preparedness 1.8

编辑推荐:

  本刊推荐:针对公共卫生危机中信息传播的复杂挑战,研究人员聚焦大型语言模型(LLMs)在公共卫生沟通与危机管理中的应用困境,系统分析了其存在的偏见风险、数字鸿沟及伦理问题,并提出建立包含数据隐私保护、偏见修正机制和透明度规范的监管框架。该研究为AI技术在公共卫生领域的规范化部署提供了关键理论支撑,对提升全球健康危机应对效能具有重要参考价值。

  
当新冠疫情席卷全球之际,社交媒体上泛滥的虚假信息如同病毒般快速变异传播,导致公众对防疫指南的信任度持续走低。在印度尼西亚的偏远村落,村民因误信"5G信号传播病毒"的谣言而破坏通信基站;在印度多元语言混杂的城乡结合部,官方健康通知因未能适配地方方言而形同虚设。这些现实困境暴露出传统公共卫生沟通体系在应对大规模健康危机时的局限性——信息传播速度追不上谣言扩散效率,标准化内容难以契合多元文化语境。
正是基于这样的背景,英迪拉·甘地国立开放大学性别与发展研究学院的乌莎·拉纳(Usha Rana)与哈利法大学计算机与信息工程系的鲁彭德·辛格(Rupender Singh)在《Disaster Medicine and Public Health Preparedness》发表研究,深入剖析以ChatGPT为代表的大型语言模型(Large Language Models, LLMs)在公共卫生领域的应用双刃剑。研究者指出,这些拥有多语言即时生成能力的AI模型既能成为遏制信息疫情(Infodemic)的利器,也可能因训练数据偏见、数字资源分配不均等问题加剧健康不平等现象。
为系统评估LLMs的应用潜力与风险,研究团队采用多维度分析方法:首先通过文献计量学梳理疫情期间健康信息的传播特征,结合案例研究对比印度、中国等亚洲国家在数字基础设施差异下的信息接收效果;其次构建理论框架,从技术伦理角度分析模型偏差的形成机制;最后通过政策文本分析,提出针对公共卫生场景的AI治理方案。特别值得注意的是,研究强调需在不同文化背景下测试ChatGPT、DeepSeek、Claude等主流模型的输出差异,这项跨模型比较的方法为后续实证研究提供了重要方向。
研究结果揭示出七大核心挑战:在模型输出偏见方面,由于LLMs训练数据隐含的社会偏见,可能生成强化性别刻板印象的健康建议,如将孕产保健信息默认关联女性群体;数字鸿沟问题在东南亚农村地区尤为突出,当城市居民通过AI助手获取疫苗接种信息时,偏远地区民众仍依赖口耳相传的滞后消息;伦理规范缺失导致模型可能泄露用户健康隐私数据,2023年已有研究显示医疗聊天机器人存在数据重组识别的风险。
在透明度与信任维度,研究发现未标注AI来源的健康信息会引发公众疑虑——当民众得知防疫指南来自机器生成时,遵守意愿下降约23%。文化适应性不足的案例同样显著:某LLM在生成斋月期间防疫指南时,未考虑穆斯林昼夜颠倒的作息规律,建议"每日固定时间测温"而引发实践困难。此外,模型扩展性瓶颈使得单一算法难以同步适应城市密集区和边远山区的传播需求,而国际监管标准缺失更导致跨国健康信息协调受阻。
针对这些挑战,研究者提出分层治理策略:技术层面需建立动态审计机制,定期检测模型输出的文化敏感度与偏见指数;政策层面应强制要求公共卫生机构公开AI使用声明,并设立第三方伦理审查委员会;基础设施层面建议通过公私合作模式,在数字薄弱区域部署轻量级AI通信节点。值得注意的是,论文特别强调防止技术民族主义对健康信息的侵蚀——当不同国家基于自身利益定制LLMs时,可能输出相互矛盾的防疫建议,这需要通过世界卫生组织框架下的国际标准来协调。
该研究的突破性价值在于首次将公共卫生危机管理的"黄金72小时"原则与AI响应速度相耦合,提出"偏见修正时间窗"概念:模型训练数据的更新周期必须短于谣言传播周期,否则将失去干预意义。同时研究创新性地将健康传播学中的知信行(KAP)模型与机器学习反馈循环结合,论证了AI信息迭代与公众信任建立的正相关关系。
尽管研究存在未涉及具体模型架构优化等技术细节的局限,但其构建的伦理-技术-政策三维治理框架,为后续《世界卫生组织人工智能健康指南》的制定提供了理论基石。在新冠病毒变异株仍在演进的当下,这项研究及时警示我们:缺乏人文关怀的技术进步可能加剧健康不平等,而只有将算法正义与公共卫生伦理深度融合,才能让AI真正成为守护人类健康的数字屏障。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号