编辑推荐:
为解决医疗模拟领域缺乏生成式人工智能(AI)合法支持学术文献创作的明确指导问题,研究人员开展了关于生成式 AI 工具在学术写作过程中应用的研究。结果表明,合理使用可辅助写作,但存在抄袭、幻觉等问题。该研究为学者提供了使用 AI 工具的伦理指引12。
在科技飞速发展的当下,生成式人工智能(AI)工具如 ChatGPT 横空出世,迅速融入人们的生活,学术领域也不例外。这些工具凭借强大的功能,能快速处理文本、生成内容,看似为学术写作带来诸多便利。然而,其背后却隐藏着不少问题。比如,抄袭现象频发,生成的内容可能与已有文献高度相似;“AI 幻觉” 导致提供的信息虚假或无意义;引用文献也不准确,严重影响学术的严谨性。而且,目前在医疗模拟领域,对于如何合法、规范地使用生成式 AI 工具辅助学术创作,缺乏清晰的指导,这让学者们在使用时陷入两难。
为了解决这些问题,来自阿尔伯塔儿童医院(Alberta Children’s Hospital)、卡尔加里大学卡明医学院(Cumming School of Medicine, University of Calgary)、路易斯维尔大学医学院(University of Louisville School of Medicine)、诺顿儿童医院医疗集团(Norton Children’s Medical Group)以及伦敦国王学院(King’s College London)的研究人员 Adam Cheng、Aaron Calhoun 和 Gabriel Reedy 展开了深入研究。他们的研究成果发表在《Advances in Simulation》上,为该领域指明了方向。
研究人员主要通过文献检索以及向 ChatGPT4 提问的方式收集信息。针对学术期刊和出版商对生成式 AI 使用的态度,他们检索相关文献并分析 ChatGPT4 的回答,确定原始资料并加以讨论,将相关内容编辑整合。对于生成式 AI 辅助写作的问题及伦理使用方式,同样借助向 ChatGPT4 提问并结合自身思考和现有研究进行探讨310。
研究结果如下:
- 期刊和出版商的观点:学术期刊和出版商十分重视所发表研究的完整性,纷纷出台学术诚信和道德实践政策。多个医学编辑组织也发布了生成式 AI 使用指南。其中,在学术写作过程中使用生成式 AI 工具的透明度是学术诚信的基石,应在论文方法部分明确阐述 AI 工具的使用方式及生成内容的处理情况;生成式 AI 工具不符合学术研究的作者标准,不能被认定为作者;同时,学术作品作者的创造性和智力贡献至关重要,AI 工具不能替代研究团队的贡献456。
- AI 辅助写作的问题:基于大语言模型(LLM)的生成式 AI 工具存在诸多问题。一是抄袭,其生成的内容可能与原始信息相似,易引发抄袭和版权问题;二是 “AI 幻觉”,会提供看似合理实则虚假或不准确的内容;三是引用文献不准确,生成的参考文献错误率高,严重影响学术可靠性。因此,研究人员不建议仅依赖此类工具撰写医学摘要、文章或研究提案的内容及生成参考文献789。
- AI 写作的伦理使用:研究人员认为,ChatGPT 在语法和拼写检查、提升可读性、语言翻译等方面可发挥一定作用,但使用后需人工复查,确保符合作者思路且无错误;在生成大纲、总结内容等方面,虽有一定价值,但作者要保证最终成果体现自身想法,避免引入偏差;而在起草全新文本、数据解释、文献综述等方面,使用 ChatGPT 存在伦理风险,不建议使用111213。
- 作者使用 AI 工具的伦理准则:研究人员提出作者使用生成式 AI 工具的伦理准则,包括确保主要观点、见解等为自己所有;保证人类在核心研究和写作技能上的能力不被削弱;仔细检查内容和参考文献的准确性、可靠性及无偏差性;明确披露 AI 工具的使用方式及涉及的论文部分。若上述准则有未满足的情况,作者应重新审视写作过程14。
研究结论和讨论部分强调,本文的研究成果仅适用于 ChatGPT 及类似基于 LLM 的生成式 AI 工具。随着技术发展,AI 工具的使用建议可能需调整。同时,不能忽视人类能力被削弱的问题,合理使用生成式 AI、规范其在学术写作中的应用,还需医疗模拟领域持续探讨,以确保与技术发展相适应,推动学术研究健康发展。