国际金融网 > 时事 >

大模型兴起使学术造假更易于操作?专访施普林格·自然科研智讯副总裁:AI同样能帮助识别造假

时间: 小采 时事

4月28日,由北京市科学技术委员会、中关村科技园区管理委员会与NaturePortfolio主办,北京科技创新促进中心承办的2024中关村论坛年会平行论坛“数字化促进大型企业创新——AI赋能产业发展”论坛在京举办。

全球著名出版机构施普林格·自然集团科研智讯副总裁达瑞纳·哈维尔(DarenHowell)在演讲中对人工智能研究如何转化为产业进行分析,他认为,人工智能作为创新催化剂这一角色的不断发展,以对海量知识、信息和数据的分析、结构化为开端,实现信息流的重塑,有助于提高效率,推动创新,融入现实场景,推动产业变革。

论坛期间,围绕人工智能(AI)对科研领域产生的影响,《》记者对哈维尔进行了专访。

AI幻觉其实是可以受控的

NBD:由于技术原因,大模型有时会出现编造信息、“一本正经地胡说八道”的AI幻觉现象。如果AI幻觉出现在追求严谨和精确的科学研究领域,后果可能会非常严重。您认为这样的AI幻觉有可能得到解决吗?

哈维尔接受每经记者专访每经记者石雨昕摄

哈维尔:我们发现AI幻觉其实是可以受到控制的,关键是要给大型语言模型提供准确的信息,并告诉它们根据准确的信息来回答问题。

假设我去年读过一本书,而你今天问我这本书的情况,我可能会弄错一些细节。但如果这本书就摆在我面前,我就可以看着书页进行详细说明。因此,如果利用大型语言模型进行同样的处理,可以在很大程度上控制AI幻觉,但你始终需要一个人来检查并对输出结果负责,因为这涉及质量控制和所有权问题。

NBD:您认为能彻底解决这个问题吗?我们能否100%信任大模型产出的文本?

哈维尔:如果你将大型语言模型与事实相结合,并要求它们检索这些事实,那么我认为会有一个解决方案。大模型在回忆事实方面会和很多人一样好,但人类自己都不一定能准确记住所有事情,所以我认为对于大模型而言,100%的信任其实是一个很高的标准。

NBD:近年来,随着人工智能的发展,利用人工智能代写论文、数据造假等学术不端行为层出不穷,您如何看待这一问题?

哈维尔:抄袭等学术造假行为历来存在,但大型语言模型的兴起使之更为普遍且易于操作。作为全球知名出版机构,我们向来非常重视学术造假的问题。

一方面,我们长期运用人工智能技术进行文本查重及侵权识别,有效遏制学术造假现象;另一方面,当人们发表文章时,有且只有一个作者,作者是有声誉的,他们也需要考虑保护声誉这一问题。

因此,我想对作者们说,如果文章用到AI,请确保你自己清楚这一点,抄袭、数据造假等学术不端行为都是我们利用技术手段可以检测出来的。

实际上,我们利用人工智能检测论文抄袭、学术不端、存在造假等行为有很长一段时间,随着技术进步,近期,我们在检测由AI生成的无意义或虚假论文方面取得新突破。

例如,可以利用人工智能检测那些利用大模型生成的“胡说八道”的论文,正如上面提到,人工智能被用来生成文本时可能会生成没有意义的文本,而通过我们的方法就能够甄别出利用大模型编造的不实内容。实际过程中我们也会辅以人工审查,但不可否认的是,AI能提高工作效率,帮助我们优化解决方法。

开发科技文献大模型的核心在于数据及运算

NBD:您认为开发科技文献大模型的核心是在哪些地方?

哈维尔:数据和数据运算,这两个是至关重要的。

目前在创新方面,有些领域拥有适用AI的优质数据。比如我们可以用语言模型学习表示蛋白质的功能特性,然而我们还没有看到在材料方面有如此巨大的进步,因为材料的化学结构并不适合大型语言模型。

我认为这可能会在未来得到解决,因为一旦有了大量的训练,你就有了可以预测的数据,而通过大量计算,算法就能够取得实质性的进步,新的算法就会出现。

NBD:目前,人工智能给科学研究领域带来哪些变化?

哈维尔:许多人花在写作上的时间更少了,或者他们能够用不同的语言写作,不局限在第一语言,甚至可能是编码,比如计算机编码,这让他们在工作流程中变得更有效率。

行业领先企业拥有大量数据和强大的计算能力,他们可以将这两样东西结合在一起,创造出许多我们过去难以实现的创新。过去因为数据太多,一个人根本无法理解,但大型语言模型和其他类型的人工智能可以利用所有这些信息实现创新。

NBD:我们面临的挑战不仅在于理解创新,也在于准确衡量创新。您认为应该如何衡量创新?

哈维尔:我认为衡量创新的标准是影响力。创新关乎着我们如何能拥有更好的环境,如何能治愈不同的疾病,如何能改善交通,如何能减少能源使用或创造能源。

对我们出版机构而言,衡量影响的标准是科研创新如何造福于社会和人类。例如,你可以看到某些疾病的治疗效果有所改善,通过研究、通过创新,治疗癌症成功率有所提高,可以利用这一点来衡量科研创新的影响。

版权所有

54486