去年,西北大学的人工智能伦理学者穆罕默德·侯赛尼在担任《研究问责》期刊编辑期间,与团队一年内评审了大约500篇来稿。他回忆说,其中有一小部分稿件几乎“一眼就能看出来”是由生成式人工智能写成的。那些文章往往语气飘忽、结构松散,段落之间缺乏自然衔接,有时过度堆砌长破折号,逻辑推进突然中断,像是被人匆忙拼接而成。“目前我们多少还能凭经验识别出来,”他说,“因为它们经常显得不连贯。”
但这种“嗅觉”能维持多久,他并不确定。随着大模型能力的快速提升,人工智能正逐渐渗透进科学出版的各个环节。越来越多的调查与实证研究表明,无论是在论文撰写、语言润色,还是在同行评议阶段,人工智能都已经成为难以回避的存在。
在麻省总医院布莱根精神病学系担任研究副主任、同时也是JAMA+AI主编的罗伊·佩利斯认为,像ChatGPT这样的工具,确实为不少科研人员带来了实实在在的便利。它可以协助梳理庞杂文献,帮助起草论文框架,甚至在一定程度上提升行文流畅度。尤其对于非英语母语的学者来说,这类工具能够显著降低语言门槛。“对某些作者而言,这可能是改变游戏规则的技术,”他表示。
在出版伦理领域,支持“有条件使用”的声音同样不少。PLOS出版伦理负责人Renee Hoch曾在接受媒体采访时指出,人工智能如果在适当的人类监督下使用,有潜力提升学术交流的效率与包容性。她认为,长期以来困扰学术界的沟通障碍与语言不平等问题,或许能借助这些工具得到缓解。
不过,乐观之外始终伴随着警惕。Hoch同时强调,人工智能也可能被不良行为者利用,加速学术欺诈的规模与速度,例如批量生成伪造论文、数据集乃至同行评议意见。事实上,所谓“论文工厂”早已存在,而大模型的加入,可能让这一地下产业更为隐蔽、低成本和高产出。
《断层扫描》杂志主编、放射科医生埃米利奥·夸亚形容这种趋势像一场“雪崩”。在他看来,科学出版行业很难置身事外,只能在接受与规范之间寻找平衡。一方面,人工智能确实能够分担部分繁重工作;另一方面,它也可能冲击既有秩序。
一些数据为这种变化提供了直观印证。自然曾对全球约5000名科研人员进行调查,结果显示,约8%的受访者承认使用人工智能撰写论文初稿、翻译稿件或为自身研究总结他人文章;另有28%表示曾借助人工智能对论文进行编辑润色。另一项发表于科学进展的研究,则分析了超过1500万篇生物医学摘要,通过追踪某些高频词汇的异常增长,推测2024年发表的摘要中,至少有13.5%可能经过语言模型处理。
根据牛津大学出版社的调查反馈,不少科学家表示,人工智能在写作环节尤为有用。它可以提醒研究者可能遗漏的重要文献,帮助总结复杂背景资料,将母语写就的初稿翻译成更规范的学术英语,并纠正语法与表达错误。对于来自非英语环境的研究人员来说,这种辅助工具在一定程度上弥补了结构性劣势,使研究更容易被国际期刊接受。
然而,便利背后潜藏风险。大型语言模型存在“幻觉”问题,可能生成看似合理却并不存在的引用或数据。由于模型训练依赖既有公开文献,研究人员若不仔细核查,也可能无意间出现抄袭或误引。侯赛尼指出,某些由人工智能生成的段落甚至可能逐字复刻自已发表文章,而作者却未察觉。
学术造假并非新鲜事,但人工智能确实降低了造假的技术门槛。佩利斯认为,如今从零开始生成一套看似完整的论文文本和虚假数据,远比过去容易得多。近年来,多个研究领域已经出现疑似由“论文工厂”批量生产、可能借助人工智能撰写的低质量论文,它们涌入预印本平台和部分期刊,给本已紧张的审稿系统带来额外负担。
与此同时,人工智能也开始进入同行评议环节。疫情之后,科研人员普遍感到疲惫,愿意承担审稿工作的专家数量下降,编辑部招募审稿人愈发困难。一些出版机构开始考虑,是否可以在人工监督下允许审稿人使用人工智能辅助阅读与分析稿件。出版公司Frontiers在2025年对约1600名科学家开展调查,结果显示,近一半受访者曾在同行评议过程中借助人工智能工具。
支持者认为,人工智能或许能在一定程度上缓解人力不足的问题,甚至在某些情况下提供比人类更为中立的判断。夸亚指出,人类评审难免存在偏好与成见,而算法理论上可以更加客观。但问题在于,大模型训练数据本身包含历史偏见,这种偏见可能被无意放大。有研究在预印本平台上测试了四种语言模型作为“虚拟审稿人”,发现其中多数模型对知名作者和知名机构的论文给出更高评价。另一项研究也显示,来自高声誉院校的论文更容易获得模型青睐。
不过,也有实验表明,如果在指令中明确要求考虑性别与地域多样性,模型能够在一定程度上修正偏差。这意味着,算法的表现并非固定不变,而是与设计和训练方式密切相关。
面对这些变化,期刊与出版机构正加快制定规范。2024年的一项统计显示,在全球排名前100的科学期刊中,已有87%发布了关于生成式人工智能使用的指导原则。这些政策之所以较为一致,很大程度上得益于出版伦理委员会、世界医学编辑协会和国际医学期刊编辑委员会等机构推动的行业共识。
总体而言,学术界普遍禁止使用人工智能伪造研究内容,但允许在数据分析和语言编辑环节合理使用工具,前提是充分披露。例如PLOS要求作者明确说明所使用的工具名称、使用方式,以及人工智能参与的具体环节,并对输出结果的准确性负责。
在同行评议方面,保密性成为核心关注点。一些大型出版商,如Springer Nature、Elsevier和JAMA Network,明确要求审稿人不得将未发表的稿件内容上传至生成式人工智能平台。此外,主流期刊普遍不允许将人工智能列为合著者,也禁止利用AI生成或修改论文图像。
尽管政策逐步完善,执行仍然面临挑战。部分研究人员可能并未主动披露其使用情况,一些期刊开始尝试借助检测工具识别人工智能痕迹,但这些技术本身也存在误判和局限。
在佩利斯看来,关键不在于简单排斥或拥抱,而在于持续调整。人工智能的演进速度极快,出版系统必须随之更新规则与流程。“它正在迫使我们在出版的每一个环节重新思考,”他说,“从知识的产生,到呈现,再到完善,我们都需要重新审视。”
无论最终走向何方,可以确定的是,人工智能已不再是学术出版的边缘话题,而是正在改变规则的现实力量。真正的考验,不只是技术本身,而是人类如何在效率、诚信与责任之间找到新的平衡。
封面图片:unsplash