0.25美元「洗」一遍论文LaTeX,AI审稿分数原地起飞

不用改实验,也不用补数据。只需花 0.25 美元,把论文的 LaTeX 源码丢给大模型“洗”上一遍,重新编译成 PDF 后提交给 AI 审稿人,分数就能原地起飞。

斯坦福大学等研究团队在一项刚被 ICML 2026 录用的研究中指出,这种靠洗稿刷分的系统级漏洞已经真实发生。

研究者把这种操作称为 Paper Laundering,也就是论文洗稿。被这样处理后,研究本身并没有变强,只是措辞、结构和行文方式更贴合 AI 审稿人的喜好。

作者团队随机选取了 60 篇 ICLR 2026 在审论文,测试了 4 种零样本改写提示、2 种洗稿模型以及 3 种 AI 审稿模型。在 24 组实验条件下,AI 审稿分数平均上涨了 0.45 分。

顶会投稿越来越多,审稿人越来越不够用,AI 审稿自然成了一个必然选项。

但这篇论文却指出,现阶段的 AI 审稿,不只是容易被低成本文本改写带偏,还可能将整个学术圈拉进高度同质化的坑里。

论文标题:

Stop Automating Peer Review Without Rigorous Evaluation

论文链接:

http://arxiv.org/abs/2605.03202

为什么只是改文字,就能影响专业打分?词频统计给出了答案。

大模型在重写时,会明显增加两类词:一类是表示不确定性的对冲词,比如 may、suggests,出现频率增加了 78.2%;另一类是强化语气、强调稳健性的词,比如 robust、strong,增加了 45.2%。这种重写,本质上是在迎合大模型自身的文本偏好。

洗稿前后不同类型词汇的平均新增、删除数量与变化比例

人工复核中还发现,洗稿过程甚至会生成虚假的科学内容。部分论文被凭空添加了根本不存在的消融实验参数分析,或者为并未进行的实验补上一段看似合理的通用解释。

这说明,当前 AI 审稿人很容易被表层文本修饰带偏,无法穿透文本去评估底层的科学贡献。