人工智能撰写科学论文是否可行?《Nature》调查显示研究者观点分歧

来源:Nature 作者:Diana Kwon

人工智能撰写科学论文是否可行?《Nature》调查显示研究者观点分歧

人工智能AI)革命正在多大程度上改变科学成果的传播过程?随着 ChatGPT 等生成式 AI 工具的迅速发展,学术界对使用 AI 撰写研究论文的态度也在不断变化。有迹象表明,包含 AI 使用痕迹的论文数量正在迅速增加(D. Kobak 等人,预印本发表于 arXiv,https://doi.org/pkhp;2024),这引发了关于剽窃和其他伦理问题的讨论。

为了解研究者对这一话题的看法,《自然》杂志向全球约 5000 名学者提出了多种假设场景,以探讨哪些 AI 使用方式被认为符合伦理规范。调查结果显示,研究者对 AI 的合理使用场景存在明显分歧。尽管学者们普遍认为使用 AI 聊天机器人辅助准备手稿是可以接受的,但实际使用 AI 进行此项工作的人相对较少,且许多使用者并未披露这一情况。

以往的调查显示,研究者还会使用生成式 AI 工具辅助编程、构思研究思路等。在某些情况下,学术界已就 AI 的应用达成共识,例如生成 AI 图像被认为不可接受,而其他用途则存在伦理争议。《自然》的最新调查聚焦于论文撰写和评审 —— 这些领域的伦理标准尚未明确。

分歧的观点

《自然》的调查设定了多个场景,假设一位虚构学者布洛格斯博士(Dr Bloggs)在未披露的情况下使用 AI,例如生成论文初稿、编辑草稿、撰写特定章节或翻译论文。其他场景包括使用 AI 撰写同行评审意见,或在评审时提供修改建议(完整调查内容、数据和方法见补充信息,你也可以通过部分调查问题自测)。

参与者需要判断这些行为的可接受性,以及自己是否曾在类似场景中使用 AI 或愿意尝试。调查未提及期刊政策,旨在揭示研究者的潜在观点,且采用匿名形式。

5229 名受访者于 3 月通过随机邮件(发送给全球近期发表论文的作者及施普林格・自然的作者和评审专家库成员)或《自然》每日简报邀请参与。由于不可避免的回应偏差,结果未必代表全体研究者的观点,但受访者来自全球各地(声明国家的受访者中,21% 来自美国,10% 来自印度,8% 来自德国等),涵盖不同职业阶段和研究领域(中国作者样本较少,主要因许多人未回复邮件邀请)。

调查显示,学者对 AI 使用的看法差异显著。多数受访者(超 90%)认为使用生成式 AI 编辑或翻译论文是可接受的,但就是否需要披露及披露形式(如简单声明或详细说明 AI 提示词)存在分歧。

人工智能撰写科学论文是否可行?《Nature》调查显示研究者观点分歧

在使用 AI 生成文本(如撰写全文或部分内容)方面,观点更为分裂:总体而言,65% 认为符合伦理,但约三分之一持反对意见。

整体来看,约 65% 的受访者表示从未在上述场景中使用 AI,职业早期研究者更可能至少在一种场景中使用过 AI。但使用者中,多数未在当时披露 AI 的使用。

“这些结果印证了我们从研究者处听到的观点 —— 人们对 AI 辅助研究充满热情,但实际应用率较低。” 跨国学术出版商威利(Wiley)高级副总裁乔希・贾勒特(Josh Jarrett)表示,该公司也曾调查研究者的 AI 使用情况。

两极化的评论

在自由评论环节,研究者观点差异极大。一方面,有人认为生成式 AI 的广泛应用使披露变得不必要。“AI 即便尚未成为常态,也将如同使用计算器一样普遍,” 曼谷朱拉隆功大学的生物医学研究者艾萨万・佩奇洛里安(Aisawan Petchlorlian)表示,“‘披露’将不再是重要问题。”

另一方面,有人坚决反对 AI 参与论文撰写或评审。“我永远不会宽恕使用生成式 AI 撰写或评审论文,这是可悲的作弊和欺诈行为,” 加拿大一名地球科学研究者称。

还有人态度矛盾。英国剑桥大学传染病研究者丹尼尔・伊根(Daniel Egan)表示,尽管 AI 能节省时间并擅长综合多源复杂信息,但过度依赖会让人感觉像是在欺骗自己。“使用 AI 让我们失去了通过参与这些有时繁琐的过程来学习的机会。”

受访者还提出了各种担忧,从剽窃、破坏出版和同行评审过程中的信任与责任等伦理问题,到 AI 的环境影响。

有人指出,尽管普遍认为 AI 工具的使用可能符合伦理,但实际体验显示 AI 常产出劣质结果 —— 虚假引用、不准确陈述,甚至如一位受访者所述的 “结构精美但内容空洞的废话”。受访者还提到,AI 回应的质量因具体工具而异。

也有积极观点:许多人指出 AI 有助于英语非母语学者公平竞争。

一些研究者解释了为何支持某些用途却反对另一些。“我使用 AI 将西班牙语自译为英语,或反向翻译,并对文本进行大量编辑,但我永远不会用 AI 从头生成内容,因为我享受写作、编辑和评审的过程,” 西班牙一名人文研究者表示,“而且我永远不会用 AI 进行评审,因为想到自己的论文可能被 AI 评审就感到恐惧。”

职业阶段与地域差异

令人意外的是,学者的观点通常不随地理位置、研究领域或职业阶段显著变化。但正如预期,自报曾使用 AI 撰写或评审论文的受访者,更倾向于认可相关场景的合理性。

在最常见的 AI 用途(论文编辑)方面,职业阶段确实产生影响:年轻研究者更可能认为该做法可接受,且更可能承认自己曾使用 AI 编辑论文。

英语非母语国家的受访者通常比英语国家受访者更常使用 AI,但他们对 AI 使用伦理的基本看法差异不大。

相关调查

不同研究者和出版商已针对学术界的 AI 使用展开调查,广泛探讨 AI 在科学过程中的潜在应用。今年 1 月,加拿大渥太华医院研究所健康研究者杰里米・吴(Jeremy Ng)及其同事对 2000 多名医学研究者的调查显示,45% 曾使用 AI 聊天机器人(J. Y. Ng 等人,《柳叶刀・数字健康》,7 卷,e94–e102;2025)。其中,超三分之二用于撰写或编辑手稿,即总体约 31% 的受访者曾为此使用 AI,略高于《自然》调查结果。

“我们的发现既体现了热情,也反映了犹豫,” 吴表示,“这进一步表明,学术界对聊天机器人应如何、在何处或为何用于科学研究尚未达成共识。”

今年 2 月,威利发布的全球近 5000 名研究者 AI 使用调查显示(见go.nature.com/438yngu),研究者认为 AI 的多数用途(如撰写文档、提升同行评审速度和便捷性)将在未来几年被普遍接受。但不足半数受访者实际在工作中使用过 AI,40% 用于翻译,38% 用于论文校对或编辑。

“绝大多数人认为,未来两年 AI 将显著改变他们作为研究者和作者的工作,” 贾勒特说,“但阻碍他们的主要因素之一是,缺乏关于 AI 安全伦理使用的指南,以及使用 AI 时的适当披露规范。”

是否需要披露?

多数科研出版商已制定 AI 相关指南,禁止使用 AI 创建、篡改和操纵数据或结果(如图像),并通常规定 AI 工具不能列为作者,因其无法对研究负责。但具体政策差异显著,尤其是在 AI 使用的披露要求方面。

许多出版商现在对 AI 的不同用途进行区分,通常分为两大类:改进文本(如提升拼写、语法和可读性)和生成新内容。后者通常需要披露,前者则不需要。2023 年,荷兰海牙的国际科技与医学出版商协会(STM)建议,AI 用于润色、校正、编辑或格式化手稿时无需披露,但若超出这些基本任务则需披露。

部分期刊(如美国医学期刊《JAMA》)实施严格的报告要求,要求使用 AI 的作者提供软件详情、制造商信息及使用方式简述(简单拼写和语法检查除外),并确认对生成内容负责。

“目前,我认为这有点像报告利益冲突 —— 宁可倾向于披露,”《JAMA》执行总编辑兼编辑运营副总裁安妮特・弗拉纳根(Annette Flanagin)表示。

威利也要求作者详细说明 AI 使用情况。《科学》等期刊(由华盛顿特区的美国科学促进会出版)要求作者提供提示词,作为 AI 使用说明的一部分。《自然》的出版商施普林格・自然表示,生成式 AI 的使用应 “适当记录”,但 AI 辅助的文字编辑无需声明(《自然》新闻团队与出版商编辑独立)。

其他出版商则采取不同策略:英国布里斯托尔的 IOP 出版社最初要求作者声明 AI 使用,现已取消这一规定,转而鼓励透明性,强调作者需对 AI 生成的内容负责。IOP 出版社同行评审与研究诚信负责人金・埃格 leton 今年 4 月对《自然》表示,这一调整是为了反映 AI 工具的普遍性。

在 AI 用于同行评审方面,出版商普遍更为严格。阿姆斯特丹的爱思唯尔和美国科学促进会目前禁止评审者使用生成式 AI 或 AI 辅助评审,而威利和施普林格・自然允许有限使用(需披露),并因担心机密信息泄露禁止将材料上传至聊天机器人网站。

《自然》调查的受访者也关注隐私问题,部分人认为,使用本地部署的 AI 辅助评审(不向在线泄露信息)是可接受的。

需要明确性和透明度

鉴于 AI 使用和披露的诸多不确定性,STM 今年 4 月发布报告草案,对稿件准备中的各种 AI 用途进行了分类(见go.nature.com/4tz8bkj)。

“我们希望出版商及更广泛的学术生态系统能采用这套术语,”STM 子公司 STM Solutions 项目总监约里斯・范罗森(Joris van Rossum)表示。

西澳大利亚大学(珀斯)的生物信息学家和计算机科学家迈克尔・怀斯(Michael Wise)认为,研究者仍处于探索 AI 在学术写作中伦理规范的早期阶段。怀斯同时担任出版伦理委员会(COPE)受托人,该委员会为学术出版推荐最佳实践。

“需要强调的是,出版伦理的核心准则并未改变:在透明的前提下,准确报告所做工作、原因及结论,” 他说。

本文转载于Nature,原文链接:https://www.nature.com/articles/d41586-025-01463-8

本文转载自Nature,本文观点不代表雅典娜AI助手YadiannaAI立场。

(0)
Athena的头像Athena
上一篇 2天前
下一篇 2天前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

客服邮箱: kefu@yadiannaai.com

投稿邮箱:tougao@yadiannaai.com

合作邮箱:hezuo@yadiannaai.com

关注微信