9月17日深夜,今年1月引发全球轰动的开源AI大模型DeepSeek-R1,在经过8个多月严格的同行评审之后,登上国际顶尖学术期刊《自然》杂志封面,成为全球首个经过同行评审的大语言模型。
此前,主流大模型通常采用一套不同于学术界的成果发布方式:开直播,在预印本网站和官方技术博客上发布突破性成果,同时在测评榜上拿下高分,以证明各自的技术优势。年初,DeepSeek-R1的业界影响力也是由此而来。
近年来,人工智能,特别是大语言模型,正以惊人的速度和一种近乎“黑箱”的方式发展。此次,DeepSeek团队在《自然》杂志上发表论文,无疑打破了行业惯例。对此,多位专家表示,此举意味着“野蛮生长”的大模型正在向更为透明、可复现的方向发展,同时也意味着人工智能正努力融入更广泛的科学社区,为AI与其他领域的融合打通更多壁垒。
影响力倒挂?发表生态在改变
这篇由梁文锋担任通讯作者的论文披露了DeepSeek-R1更多训练细节,包括29.4万美元的超低训练成本,并正面回应了模型发布之初的蒸馏质疑。
实际上,这篇关于DeepSeek-R1的论文早今年1月就以预印本形式发表在arXiv平台上。此次论文正式发表前,经历了8名同行评审,并在他们的反馈下作了许多修改、完善和补充,论文的清晰度、可信度和完整度得到进一步提升。
自今年1月在全球最大开源AI社区Hugging Face发布以来,DeepSeek-R1模型已成为该平台上下载量最高的复杂问题解决类模型。截至9月18日,R1模型的预印本论文也在短短8个多月中,获得约3600次引用——在大模型领域,这是一个很高的引用数据。
“DeepSeek-R1用无限强化学习、奖惩制度来提升大模型的推理能力,在业界起到了引领风潮的作用。”在浙江大学本科生院院长、人工智能研究所所长吴飞教授看来,尽管8个月的同行评审使论文更趋完善,但其最具创新性的方法并没有实质改变。
吴飞注意到,这8个月间,在某些任务表现上,有些大模型已超越DeepSeek-R1,但《自然》并未选择发表那些成果,反而坚持发表这篇已在预印本平台上发表过的论文,“这是前所未见的”。
过去,AlphaGo、AlphaFold等论文登上《自然》都是首发,而这篇首秀在arXiv上的论文不仅登上顶刊《自然》封面,编辑部还为此配发社论,这让吴飞感觉到AI正在改变论文发表生态——或许未来全球影响力最高的20篇论文,可能最早发表于草根平台。
AI需要加入更大“科学群聊”
在众多业内人士看来,这次R1模型登上《自然》,除了肯定其学术价值,还标志着AI基础模型正从一个靠技术博客和“打榜”为主要评价标准的领域,迈向以方法论的科学性、可复现性和严谨验证为核心的成熟科学。
上海科技大学信息学院助理院长屠可伟教授告诉记者,期刊发表周期至少6-12个月,会议论文则需3-6个月,这样的发表速度对AI来说太慢了。不过,在“谁都能往上发”的预印本平台arXiv上,论文质量也的确良莠不齐。屠可伟认为,R1模型通过同行评审登上《自然》,更大的意义在于,让AI获得了更广泛科学群体的关注。
《自然》杂志在同步发表的社论中表示,当前,那些正迅速改变人类知识获取方式的主流大语言模型中,尚无任何一个经过研究期刊的独立同行评审。严格的同行评审有助于清晰呈现大型语言模型的工作原理,并帮助评估其是否能实现宣称的功能,有利于遏制人工智能行业的炒作现象。此次DeepSeek-R1打破行业惯例,让大模型朝着提升透明度的方向迈出了可喜一步。
同时,同行评审还能增强研究的可信度,在不同群体中获得更高认可度。此外,评审还会对模型的安全性、防护机制作出要求,将推动改善目前颇受关注的数据污染、固有偏见等问题。
屠可伟坦言,人工智能需要在更大范围与其他学科领域加速融合,而实践中面临的最大挑战就是学科隔阂,增进科学家与AI专家之间的交流极为必要。“此次R1模型登上《自然》,有助于让AI融入更大的‘科学群聊’。”