大型语言模型在医疗决策中的社会人口统计学偏见研究

【字体: 时间:2025年04月08日 来源:Nature Medicine 58.7

编辑推荐:

  编辑推荐:针对大型语言模型(LLMs)可能因患者社会人口特征(如种族、收入、性取向)产生临床建议偏差的问题,研究人员通过分析170万条模型输出数据发现:标注为黑人、无家可归或LGBTQIA+的病例被过度推荐急诊/侵入性治疗/心理健康评估(如LGBTQIA+亚组接受心理健康评估频率超临床指征6-7倍),而高收入病例更易获得CT/MRI等高级影像检查(P?<?0.001)。该研究揭示了LLMs潜在的医疗偏见风险,为健康公平性评估提供关键证据。

  当大型语言模型(LLMs)进军医疗领域,它们是否会戴着"有色眼镜"看病?一项覆盖170万条模型输出的重磅研究揭开了惊人真相:在保持相同临床症状的前提下,标注为黑人、无家可归或LGBTQIA+的虚拟病例,被模型"区别对待"——推荐急诊、侵入性操作或心理健康评估的概率显著提升。其中LGBTQIA+亚组接受心理评估的频率竟超出临床实际需求6-7倍!而"钞能力"患者更受青睐:高收入标签使CT/MRI等高级影像检查推荐率飙升(P?<?0.001),低收入群体则被"精打细算"地限制在基础检查。这些偏差经多重假设校正后依然顽固存在,且完全违背临床指南逻辑。无论是商业版还是开源模型,都暴露出这种"AI偏见",暗示若不及时干预,这些数字医生可能成为健康不平等的推手。该研究为AI医疗公平性敲响警钟——在拥抱技术红利的同时,必须给算法装上"偏见过滤器"。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号