机器之心报道
编辑:杜伟、泽南
连「作为一个大模型……」这样的 AI 语都忘了删就提交,结果还过审发表了。这不仅仅是简单的疏忽,而是一种新的学术写作现象。ChatGPT 出现后,许多学术机构发布了禁止令,因为这种强大的AI生成能力可能导致虚假或低质量内容的出现,这与传统研究目的背道而驰。不过,由于大型模型在日益增长的应用中,我们很快就对最初的担忧视而不见。一些学术机构正在重新考虑禁令,而微软甚至计划在本年内将ChatGPT整合到其Office软件套件中。很快,或许我们所有人都能利用这些工具来撰写文章。
这让人们不得不思考未来的学术论文会如何受到AI生成内容的影响。在实际操作中,这种情况似乎已经开始发生。当一位斯坦福大学本科生使用谷歌学术(Google Scholar)搜索时,就发现了一些明显掺杂伪造内容的手工论文。当你输入“‘As an AI language model’ -‘ChatGPT’”进行搜索时,可以找到大量直接粘贴ChatGPT回答的地方,开篇就提到了AI,让人忍俊不禁。此外,还有更多类似的例子,比如发表在《国际现代农业和环境期刊》和《技术创新和能源杂志》上的论文。
更令人震惊的是,有一篇发表在《国际高级工程和土木研究期刊》的论文,其中ChatGPT甚至引用了一篇作者X和Y虚构(fake)的文章。在机器之心尝试于谷歌学术中输入“‘As an AI language model’ -‘ChatGPT’”进行检索时,显示出10页中的100篇左右相关文献。这引出了一个问题,即这些文档是怎样通过编辑审核或同行评审系统的?
最后,一位评论者简洁地指出,这些都是四级期刊,只要付费即可出版,因此它们充满无意义垃圾至少目前看来,聊天机器人所产生的文档尚未对我们的工作造成重大影响。但谁知道当这种工具真正流行起来并融入我们的Office软件套件之后,我们所处的学术世界会变成什么样子?