百度6月30日正式開源文心大模型4.5繫列,包含47億、3億參數的MoE模型及0.3億參數稠密模型等10款産品,預訓練權重與推理代碼全面開放。
觀點網訊:6月30日,百度在中國正式開源文心大模型4.5繫列模型,涵蓋47億、3億激活參數的混合專家(MoE)模型與0.3億參數的稠密型模型等10款模型,實現預訓練權重和推理代碼完全開源。
該開源繫列現可在飛槳星河社區、HuggingFace等平台下載部署,百度智能雲千帆大模型平台同步提供模型API服務。
百度于2025年2月預告此計劃,並明确6月30日開源日期。
免責聲明:本文内容與數據由觀點根據公開信息整理,不構成投資建議,使用前請核實。
審校:楊曉敏