IT之家(博客/媒体)63arXiv 计算机科学板块宣布收紧 AI 生成内容规则,要求作者对论文内容承担全部责任。若发现作者未核查大语言模型生成的内容,如虚构参考文献或残留元评论,将被禁投一年。禁令结束后,新论文需先通过同行评审。此举背景是平台上 AI 生成内容快速增加,此前已发现隐藏提示语操纵审稿工具。部分研究人员支持规则,但也有人担心选择性执行或滥用。行业arXivAI 生成内容学术规范预印本同行评审推荐理由:arXiv 的新规直接影响了所有使用 AI 辅助写论文的研究者,尤其是计算机科学领域。如果你用大模型生成内容,务必仔细核查,否则可能面临一年禁投——建议所有预印本作者点开了解执法细节。
Ethan Mollick@emollick40一项观察指出,学术界中许多学者正在私下使用旧版本的AI模型,且使用方式不当,却不愿公开讨论。这些旧模型在生成引用时存在较多幻觉,而新模型和智能体框架能显著降低错误率。公开AI使用情况有助于建立新的学术规范,提升研究透明度和可信度。行业学术规范AI安全问题模型幻觉透明度推荐理由:反映了学术圈在AI应用上的隐秘现状,提示行业需推动透明化以改善研究质量,对政策制定和规范建设有参考价值。