机器之心报道
编辑:杜伟、泽南
连「作为一个大模型……」这样的 AI 语都忘了删就提交,结果还过审发表了。
ChatGPT 出现以后,很多学术机构都发出了禁令,因为这种 AI 虽然生成能力强,但有时会胡说八道,滥用大模型写文章也违背了做研究的初衷。
但随着大模型的应用浪潮,我们很快忘记了刚开始的恐惧。有学术机构正在解禁,而微软也计划在年内将 ChatGPT 整合到 Office 全家桶里。或许过不了多久,人人都可以用大模型去写文章,这种可能性让人不得不深思以后的学术论文可能面临的冲击。
事实上,这种情况已经悄然发生。今天,有个斯坦福本科生在谷歌学术搜索(Google Scholar)上发现了一些涉嫌抄袭和掺假论文,其中直接将 ChatGPT 答案贴上的内容居多。这一现象引人深思,不仅是对 AI 技术使用方式的一次性探讨,也反映出当前学术界存在的问题,比如审核流程是否严格,以及同行评审制度是否有效等。
当你输入「“As an AI language model” -“ChatGPT”」进行搜索时,可搜得众多直接将 ChatGPT 答案用于论文撰写的情况。这其中还有许多类似情形,比如两篇分别发表在《国际现代农业和环境期刊》和《技术创新和能源杂志》的论文,它们似乎无意中揭示了一场关于知识产权与信息真实性的较量。而更令人惊讶的是,一篇被认为颇具影响力的论文竟然引用了一份虚构来源文献,即作者 X 和 Y 的一篇根本不存在的研究成果。
机器之心对此进行了进一步调查,在谷歌学术中输入关键词后,最终收获到了十页以上的相关记录,大约有一百篇左右这样的疑似掺假文献。此番事件激起人们对于这些如何能通过严谨程序而未被识别出的疑问,对于我们理解未来科技发展带来的变化提出了新的思考。
最终有人简洁而痛切地指出,这些问题并不罕见,只要付费即可发表,是一些毫无意义且低级质感的作品。不过至少目前看来,ChatGPT 生成的这些文档尚未造成太大的实际影响。但谁又能预料,当它真正融入到我们的日常生活中,如同微软计划中的那样,将这款工具整合进 Office 系列软件,那么我们所处的人类社会会经历怎样的变革?
参考链接:
https://twitter.com/itsandrewgao/status/1689634145717379074