2023-01-29 13:10:00 来源:IT之家 阅读量:15065
面对ChatGPT,自然终于坐不住了。
具体来说,大自然列出了两条原则:
最近ChatGPT被卷入越来越多的学术研究圈。
自然也注意到了这种情况12月,他们进行了一项调查,调查显示,在接受采访的293名教授和老师中,有20%的人发现或目睹过学生使用ChatGPT完成作业或论文,更多的人对此感到担忧
这一次《自然》发表的声明,正是为了给各种争议定性。
ChatGPT是OpenAI在去年11月底推出的由于其性能大大超越了之前的大型语言模型,迅速成为岁末年初的第一只猴子
在新媒体,影视,软件开发,游戏互动等领域,ChatGPT迅速用于辅助生产,提高效率
学术研究圈也不例外。
如上所述,AI药物研发公司Insilico Medicine的首席执行官Alex Zhavoronkov透露,他的机构已经发表了80多篇由AI工具生成的论文。
英国教授迈克·夏普勒斯一直在关注生成AI对学术研究的影响不久前,他亲自在Twitter上演示了如何用大型语言模型在10分钟内生成一篇学术论文,并一步步描述了如何用AI根据标题生成一篇摘要,也引起了不少讨论
学生使用ChatGPT帮助写论文,生成代码,完成作业的情况比较常见目前,美国部分地区的教育机构已经禁止使用这一工具
就在上周,北密歇根大学的一名学生依靠ChatGPT写出了班上最高分的论文。
有意思的是,这个学生被抓是因为提交的文章逻辑过于连贯,结构过于合理,以至于导师在得知真相前特意提出质疑。
北密歇根大学
需要明确的是,上述抢包只是偶然,更多时候,生成的内容已经让科学家难以分辨真假。
《自然》杂志此前的一篇文章指出,在ChatGPT发布后,伊利诺伊州西北大学的一个研究团队正在探索科学家是否可以通过使用AI工具来识别医学论文的摘要。
结果显示,AI生成的所有摘要都通过了抄袭检测器,在人工审查中,AI生成的摘要中有32%被认为是由真实人类完成的。
识别工具已经在开发中。
《自然》这次的结局,说明了他们对ChatGPT带来的问题的重视。
《自然》在最新内容中表示,学术圈担心学生和研究人员可能会把大规模语言模型生成的内容作为自己的文本除了冒用风险,上述过程还会产生不可靠的研究结论
尤其是对于ChatGPT,Nature团队和很多出版社,平台都认为这个工具不能对科学论文的完整性和内容负责。
一个侧面的证据是,科技媒体CNET在过去两天透露,艾在这个平台上写的77篇文章中有41篇有错误目前平台已经对他们进行了纠正,并表示将暂停这种方式的内容制作
正是出于对上述情况的担忧,《自然》才出台了相关规定。
至于如何区分AI生成的内容。
《自然》表示,目前通过仔细检查可以发现ChatGPT的原始输出,尤其是涉及到具体的scientific的工作时,内容可能包含最简单的错误和笼统枯燥的措辞此外,《自然》还表示,他们还在开发相关的识别技术
值得一提的是,还开发了相关的识别工具。
比如OpenAI本身推出的GPT—2输出检测器,输入50个以上的字符就能准确识别AI生成的文本。
再比如普林斯顿大学学生Edward Tian,他也做过相关工具GPTZero。
可是,并不是所有的大学教授和老师都对AI生成工具持否定态度。
例如,宾夕法尼亚大学沃顿商学院教授Ethan Mollick要求学生使用ChatGPT完成课堂作业,并认为这是在拥抱新兴的技术工具。
论文发布平台medRxiv的一位工作人员也表示,ChatGPT并不是一个新的麻烦。
他认为,在此之前,研究人员曾试图秘密添加宠物和虚构的名字因此,他们认为问题的核心是需要继续加强检查
最后,科研上用ChatGPT吗。
参考链接: