来源:Nature 作者:Diana Kwon

学术文献中散落着聊天机器人使用的蛛丝马迹 —— 有些情况下,这些痕迹已被悄然抹去。
“根据我最新的知识更新”、“重新生成回答”、“作为人工智能语言模型”—— 这些只是科学诚信监督者在学术文献中发现的研究者使用人工智能(AI)的部分典型迹象。ChatGPT 等生成式 AI 工具正迅速改变学术出版生态:科学家越来越多地用它们撰写和评审论文,出版商则忙着制定伦理使用指南。尽管政策各异,许多出版商要求作者在论文中披露 AI 的使用情况。
但科学 “侦探” 们已识别出数百例疑似未披露 AI 使用的案例。在某些情况下,论文被悄悄修正 —— 标志性的 AI 短语被删除却未作说明。一些研究者指出,这种不声张的修改可能对科学诚信构成威胁。
美国肯塔基州路易斯维尔大学研究素养与传播讲师亚历克斯・格林(Alex Glynn)表示,此类修改仅出现在 “极少数期刊”,但考虑到可能还有许多作者使用 AI 却未留下明显痕迹,“实际情况之多仍让我惊讶”。
“我是一个人工智能语言模型”
自 2023 年起,诚信专家就开始标记带有明显未披露 AI 使用痕迹的论文,例如包含 “重新生成回答” 这类短语的文章 —— 当用户要求聊天机器人重新回答时,基于大型语言模型的工具可能会生成此类内容。作者复制粘贴聊天机器人回复时,这些短语就会出现在论文中。
格林记得最早注意到的案例之一,是 2024 年发表在《放射学病例报告》(Radiology Case Reports)上、现已被撤稿的一篇论文,其中直接出现 “我是一个人工智能语言模型”。“这简直再直白不过,” 格林说,“但它不仅逃过了作者的眼睛,还通过了编辑、审稿人、排版人员和所有参与出版流程的人。”
此后,格林又发现数百篇带有 AI 使用特征的论文 —— 包括一些更隐蔽的迹象,比如 “当然,以下是”(Certainly, here are)这类典型的 AI 聊天机器人用语。他创建了在线追踪平台 Academ-AI 记录这些案例,目前已列出 700 多篇论文。在去年 11 月发布的预印本分析中,他对首批 500 篇标记论文进行研究,发现 13% 来自爱思唯尔(Elsevier)、施普林格・自然(Springer Nature)、MDPI 等大型出版商的期刊。
波兰卡托维兹经济大学研究者阿图尔・斯特泽莱茨基(Artur Strzelecki)也收集了知名期刊中未披露 AI 使用的案例。在 12 月发表的研究中,他识别出 64 篇发表于 Scopus 数据库认定的学科前四分之一期刊的论文。“这些期刊本应拥有优秀的编辑和严谨的评审,” 他说。
悄然修正的 “隐患”
格林指出,被标记为未披露 AI 使用的论文往往不会正式修订或撤稿。他和其他研究者注意到,删除 AI 特征短语未必需要发布勘误表,但至少应注明修改。
不标注修改是有问题的,格林说,因为 AI 短语的存在可能暗示文本还有其他问题。例如,去年发表在《公共科学图书馆・综合》(PLoS ONE)、现已被撤稿的一篇论文中,诚信专家发现 “重新生成回答” 后,进一步查出其他问题,包括许多参考文献无法验证。
格林和斯特泽莱茨基都发现过出版商在未注明修改的情况下删除 AI 特征短语的案例,即 “秘密修正”。斯特泽莱茨基发现 1 例,格林发现 5 例。例如,2023 年爱思唯尔期刊《毒理学》(Toxicology)上的一篇论文,“重新生成回答” 一词被删除却未作说明。
爱思唯尔发言人在声明中称:“我们会调查提交和已发表论文中疑似未披露生成式 AI 工具使用的案例,并视情况修正记录。” 该出版社的 AI 政策规定,作者 “应在稿件中披露生成式 AI 和 AI 辅助技术的使用”。
透明化是关键
格林与法国图卢兹大学计算机科学家纪尧姆・卡巴纳克(Guillaume Cabanac)等人追踪 “秘密修正” 现象,认为这对科学诚信构成威胁,因为透明的记录管理是确保出版内容可信度的关键。他们在 2 月的论文中报告,超过 100 篇已发表论文存在未公开的事后修改,部分与未披露 AI 使用有关,其他则涉及作者删除或图像修改。
卡巴纳克说,出版商需迅速行动,清除现有问题并引入筛查措施,但他强调此类问题仅占极小比例。“我们希望修复学术文献中的问题,” 他说,“但不希望我们的工作让信任科学的人产生怀疑。”
( DOI: https://doi.org/10.1038/d41586-025-01180-2 )
本文转载自Nature,本文观点不代表雅典娜AI助手YadiannaAI立场。