研究发现,父母依赖ChatGPT为孩子提供健康指导

【字体: 时间:2024年10月11日 来源:AAAS

编辑推荐:

  堪萨斯大学寿命研究所的一项新研究强调了人工智能产生的错误信息的一个关键弱点,以及一种潜在的对抗模式。这项发表在《儿科心理学杂志》上的研究显示,在不知道作者的情况下,为孩子寻找医疗保健信息的父母更信任人工智能,而不是医疗保健专业人员,父母也认为人工智能生成的文本可信、道德和值得信赖。

  

劳伦斯-堪萨斯大学寿命研究所的一项新研究强调了人工智能产生的错误信息的关键脆弱性以及对抗它的潜在模型。

这项发表在《儿科心理学杂志》上的研究显示,在不知道作者的情况下,为孩子寻找医疗保健信息的父母更信任人工智能,而不是医疗保健专业人员,父母也认为人工智能生成的文本可信、道德和值得信赖。

“当我们开始这项研究时,就在ChatGPT首次推出之后——我们担心父母会如何使用这种新的、简单的方法来为他们的孩子收集健康信息,”堪萨斯大学临床儿童心理学博士生Calissa Leslie-Miller说。“父母经常在网上寻求建议,所以我们想了解使用ChatGPT会是什么样子,以及我们应该担心什么。”

莱斯利-米勒和她的同事们对116名年龄在18岁至65岁之间的父母进行了一项横断面研究,他们收到了与健康有关的短信,比如婴儿睡眠训练和营养方面的信息。他们审查了ChatGPT和医疗保健专业人员生成的内容,尽管参与者没有被告知作者的身份。

莱斯利-米勒说:“参与者根据他们感知到的道德、可信度、专业程度、准确性以及他们对这些信息的依赖程度来给这些文本打分。”

据堪萨斯大学的研究人员称,在许多情况下,家长无法区分ChatGPT生成的内容和专家生成的内容。当评级存在显著差异时,ChatGPT被评为比专家生成的内容更值得信赖、准确和可靠。

莱斯利-米勒说:“这个结果让我们感到惊讶,特别是因为这项研究是在ChatGPT可用的早期进行的。”“我们开始看到人工智能正在以一种可能并不明显的方式被整合,人们甚至可能无法识别他们阅读的是人工智能生成的文本还是专家内容。”

莱斯利-米勒表示,这些发现引起了人们的关注,因为生成式人工智能现在支持的反应似乎来自应用程序或互联网,但实际上是与人工智能的对话。

“在研究过程中,人工智能输出的一些早期迭代包含了不正确的信息,”她说。“这令人担忧,因为正如我们所知,像ChatGPT这样的人工智能工具容易产生‘幻觉’——当系统缺乏足够的背景时就会出现错误。”

虽然ChatGPT在许多情况下表现良好,但莱斯利-米勒表示,人工智能模型不是专家,有可能产生错误的信息。

她说:“在儿童健康方面,后果可能很严重,我们必须解决这个问题。”“我们担心,在没有适当专家监督的情况下,人们可能会越来越依赖人工智能提供健康建议。”

作者报告说:“结果表明,即时设计的ChatGPT能够影响药物、睡眠和饮食决策的行为意图。”

莱斯利-米勒说,儿童健康信息的生死重要性有助于放大这个问题,但生成式人工智能可能是错误的,用户可能没有专业知识来识别不准确的情况,这种可能性延伸到所有主题。

她建议人工智能信息的消费者需要谨慎,只依赖与来自非生成人工智能来源的专业知识一致的信息。

“消息来源的可信度仍然存在差异,”她说。“寻找集成到具有双重检查的专业知识层的系统中的人工智能-就像我们一直被教导要谨慎使用维基百科一样,因为它并不总是经过验证的。这同样适用于人工智能——寻找更值得信赖的平台,因为它们并不都是平等的。”

事实上,莱斯利-米勒说,人工智能对寻找健康信息的父母来说可能是一个好处,只要他们明白向健康专家咨询的必要性。

“我相信人工智能有很大的潜力可以利用。具体来说,它有可能以比以前高得多的量生成信息。”“但重要的是要认识到,人工智能不是专家,它提供的信息也不是来自专家。”

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号