机器之心报道
编辑:杜伟、泽南
连「作为一个大模型……」这样的 AI 语都忘了删就提交,结果还过审发表了。这不仅仅是简单的疏忽,而是一种新的学术现象。ChatGPT 出现以后,很多学术机构都发出了禁令,因为这种 AI 虽然生成能力强,但有时会胡说八道,滥用大模型写文章也违背了做研究的初衷。不过,这并不意味着我们要对这些新兴技术保持一成不变的态度。事实上,有些学术机构正在解禁,对这些工具进行更加严格和明智地使用。
微软计划在年内把 ChatGPT 整合到 Office 全家桶里,这无疑是一个巨大的进步,也可能导致一些负面后果。或许过不了多久,人人都可以用大模型去写文章。这让人不得不去想象以后的学术论文会被 AI 生成的内容冲击成什么样。其实,这种事可能已经在发生了。
今天,有个斯坦福本科生在谷歌学术搜索(Google Scholar)上就发现了这类「浑水摸鱼」的掺假论文。当你输入「“As an AI language model” -“ChatGPT”」搜索时,会搜到很多直接将 ChatGPT 答案贴上去的论文。开篇就是 AI,看上去让人忍俊不禁。但更令人担忧的是,这些问题并非孤立存在。
类似例子还有很多,比如下面两篇分别发表在《国际现代农业和环境期刊》和《技术创新和能源杂志》上的论文。在这里,我们看到的是一个既复杂又具有挑战性的情况,其中涉及到的问题远远超出了简单的一句「浑水摸鱼」。更离谱的是,还有一篇发表在《国际高级工程和土木研究期刊》的论文中,ChatGPT 甚至引用了作者 X 和 Y 的一篇虚假(fake)文章。
机器之心也在谷歌学术中输入「“As an AI language model” -“ChatGPT”」,结果出现了 10 个页面,有 100 篇左右。这只是冰山一角,它揭示出了一场关于知识生产与验证、创作与批判性思维之间关系的大讨论。而最终的问题则是,这些如何通过编辑审核或同行评审?最后有人一语道破天机,说这是四级(four-tier)期刊,只要付钱啥都可以发表,都是一些毫无意义的垃圾。
至少目前来说,ChatGPT 生成的论文还没造成太大影响。但是,如果这种工具真的被广泛采用,并且没有得到恰当的心理准备,那么我们所处的一个时代可能将变得不可预测。而这个时代,不知何时将带来怎样的变化给我们的知识体系。
参考链接:
https://twitter.com/itsandrewgao/status/1689634145717379074