记者6月30日从百度公司获悉,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源。
目前,文心大模型4.5开源系列已可在飞桨星河社区、HuggingFace等平台下载部署使用,同时开源模型API服务也可在百度智能云千帆大模型平台使用。
今年2月,百度就已预告了文心大模型4.5系列的推出计划,并明确将于6月30日起正式开源。此次百度一次性推出10款文心大模型4.5系列开源模型,在独立自研模型数量占比、模型类型数量、参数丰富度、开源宽松度与可靠性等关键维度上,均处于行业领先位置。
据介绍,文心大模型4.5开源系列针对MoE架构提出了一种创新性的多模态异构模型结构,适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任务性能的基础上,显著增强了多模态理解能力,其优越的性能主要得益于多模态混合专家模型预训练、高效训练推理框架和针对模态的后训练等关键技术点。
据悉,文心大模型4.5开源系列权重按照Apache 2.0协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片,降低模型的后训练和部署门槛。
值得一提的是,此次文心大模型4.5系列开源后,百度实现了框架层与模型层的“双层开源”。