靓丽橙
天空蓝
忧郁紫
玛瑙红
炫酷黑
深卡色
黎明
收起
下载APP
首页> 股市消息>

正文

大模型重点转向 业内预计2027年AI加速器出货量将超越GPU

2025-06-07 05:00:00来源:中国经营网
责任编辑:第一黄金网
摘要
中经记者秦枭北京报道 寒武纪(688256.SH)于 2025 年 6 月 4 日晚间提交的 49.8 亿元定增申请已获

中经记者秦枭北京报道

寒武纪(688256.SH)于 2025 年 6 月 4 日晚间提交的 49.8 亿元定增申请已获上交所受理,这是其上市五年以来金额最大的一次再融资,也是继 2022 年定增后的又一次资本运作。此次募资将重点投向面向大模型的推理芯片及软件平台研发。实际上,自去年开始,从OpenAI推出O1推理模型,到Anthropic跟进上线依赖推理能力的Computer Use的Agent功能,再到DeepSeek R1推理模型的面市,一场关于 AI 的革命已悄然打响,AI 应用的核心战场正从模型训练转向推理实践。Gartner 预测,到 2028 年,全球推理算力需求与训练算力需求之比将达 3∶1,中国市场这一差距甚至会突破 4∶1。

多位业内人士在接受《中国经营报》记者采访时表示,推理能力作为衡量AI模型能否准确理解和响应现实世界复杂情境的关键指标,正逐渐成为衡量AI应用成功与否的重要因素。在此背景之下,传统的以GPU为核心的算力架构面临着前所未有的挑战。GPU虽然在模型训练阶段发挥着不可替代的作用,但在推理阶段,其高昂的成本和能耗比成为制约AI应用广泛普及的瓶颈。因此,业界开始积极寻找能够替代或补充GPU算力解决方案,如FPGA、ASIC等专用芯片,以及更加高效的算法和模型优化技术。

推理能力将主导未来

在人工智能的发展过程中,训练阶段一直是构建强大模型的基石。过往,企业与研究机构投入大量资源,利用海量数据对模型进行训练,以使其能够识别模式、学习规律并作出预测。然而,随着 AI 技术的日益成熟与广泛应用,一个新的趋势正逐渐显现 ——AI 推理能力正迈向舞台中央,成为未来 AI 发展的主导力量。

华为辽宁产业发展与生态部总经理黄涛对记者表示:“长期使用算力是动态的过程,随着人工智能产业的发展,我们非常明显地感受到,拥抱人工智能的企业越来越多,使用训练的越来越多,2022年、2023年算力使用的主要群体从高校与科研机构向ISV(AI解决方案提供商)转变。2023年~2024年,尤其是自DeepSeek面市以来,大部分需求都在用推理,而且这个用推理,不光是ISV有推理的需求,ISV的最终客户也有大量推理需求。”

Gartner 的预测也清晰地展现了这一趋势走向。从Gartner的相关数据图表来看,推理应用在未来呈现出快速上升的态势,而训练应用在 2024年~2027 年期间基本保持稳定且仅有小幅上涨,到 2027 年之后甚至会出现一定程度的下降。

Gartner高级研究总监曾劭清分析指出,之所以出现这样的情况,是因为基础模型提供商的数量会逐渐稳定,他们虽需持续使用算力,对模型进行更新或升级训练,但增长幅度有限。此外,企业大多只是基于基础模型进行数据微调,不会占用过多训练算力。

“反观推理应用,在线应用服务与网络结构紧密相关。”曾劭清表示,“以国内为例,一个推理应用若仅托管在北京,南方用户使用时网络时延过大,因此需要在多个地方进行托管,这就需要大量的推理算力支持,从而使得推理应用对算力的需求不断攀升。预计到 2028 年,推理所占用的算力与训练所占用的算力比例将达到 ‘3∶1’,在中国这一差距可能更大,至少达到 ‘4∶1 ’以上 。 ”

而从市场需求的角度来看,AI 应用已广泛渗透到社会生活的各个角落。无论是智能手机中的语音助手能迅速识别并理解用户的语音指令,提供精准回应,还是自动驾驶汽车实时分析路况信息,做出安全驾驶决策,抑或是智能客服系统快速解答客户咨询,提高服务效率,这些应用场景的共性在于,它们绝大多数依赖于模型推理而非训练。据麦肯锡预测,到2025年,推理将占AI总算力消耗的80%以上,而训练仅占20%。

“从预训练阶段转到推理阶段,我们也看到了同样的趋势。”Akamai亚太区云计算专家团队负责人李文涛对记者表示,“行业研究预测,未来客户在AI推理方面的投入将比训练投入高出10倍之多。”

芯片需求已变

Gartner把AI芯片分为两类:一类是GPU,英伟达大概占84%的份额,AMD大概占6%的份额,这两家厂商加在一起基本上是90%的份额。另一类是非GPU的AI加速器,例如华为的昇腾910,海光信息、寒武纪都是走的AI加速器这条路。

随着 AI 从训练向推理的重心转移,芯片需求也发生了显著变化,GPU 不再是满足所有 AI 需求的唯一选择。 曾劭清表示:“大概到2027年左右,支持AI推理应用的芯片中,AI加速器的数量会超越GPU的出货量。”

实际上,在 AI 芯片领域,长期以来,GPU 凭借其强大的并行处理能力,在训练和运行大 AI 模型方面占据主导地位。在训练阶段,GPU 其能够同时处理大量数据,大大缩短了训练时间,提高了模型训练的效率。但如今,在 AI 推理场景中,尤其是在对功耗和成本敏感的领域,GPU 的局限性逐渐显现,即 GPU是根据通用架构设计的,而非针对特定AI应用算法设计。高昂的价格使得许多企业在大规模部署推理应用时面临成本压力。

但随着从训练向推理的转移,GPU的利用率也在降低。曾劭清直言:“在顶级的公有云提供商里面,用GPU去支持AI推理应用及训练应用的话,GPU的有效利用率基本上在70%左右,而其他企业的利用率就更低了,甚至只有20%~30%。而AI加速器则能显著地提高利用率。”

“所以,这种趋势正在推动通用架构GPU往算法适配型的芯片去转移,这是厂商目前发力的方向。”曾劭清说道。

其中,微软、谷歌等企业正加速自研 ASIC 芯片,以降低对 GPU 的依赖。以谷歌 TPU 为例,其通过定制化矩阵运算单元,在推理任务中实现了比 GPU 高 10 倍的能效比,其 Gemini 大模型完全基于 TPU v5p 运行。而亚马逊的Trainium ASIC 在推理任务中的成本比英伟达的H100 GPU 低 30%~40%。

与此同时,国内的AI 芯片正以差异化技术路线实现突围。日前,华为也推出了AI算力集群解决方案CloudMatrix 384,基于384颗昇腾芯片打造,采用全互连拓扑架构,实现芯片间的高效协同。该方案可提供高达300 PFLOPs的密集BF16算力,其性能接近英伟达GB200 NVL72系统的两倍。

英伟达首席执行官黄仁勋在近期的采访中公开承认,华为正在研发的人工智能芯片和集群系统,其性能水平已与英伟达的高端产品不相上下。

黄仁勋指出:“根据我们目前掌握的信息,华为的技术水平大约与我们的H200系列产品相当。他们的发展速度非常迅猛,并且已经推出了名为Cloud Matrix的AI集群系统,其规模甚至超越了我们的最新Grace Blackwell系统。”

值得注意的是,除头部厂商外,众多新兴创新公司也纷纷投身 AI 加速器的研发中,国内诸如摩尔线程、壁仞科技、寒武纪等企业,不断推出具有竞争力的产品,在 AI 推理芯片领域积极布局,与传统巨头形成竞争之势。

根据TrendForce集邦咨询最新研究,AI服务器需求带动了北美四大云计算厂商加速自研ASIC芯片,平均每1~2年就会推出升级版本。中国AI服务器市场预计外购英伟达、AMD等芯片的比例会从2024年约63%下降至2025年约42%,而中国本土芯片供应商在国有AI芯片政策支持下,预期2025年占比将提升至40%。

更多资讯可关注第一黄金网微信公众号
更多精彩财经资讯,点击这里下载第一黄金网APP
31 收藏


    相关阅读

    导航

    本站郑重声明:第一黄金网中的操作建议仅代表第三方观点与本平台无关,投资有风险,入市需谨慎。据此交易,风险自担。