阿里通義實驗室正式開源Qwen3.6-35B-A3B模型,該模型采用稀疏混合專家架構,總參數350億,每次推理僅激活30億參數,具備卓越的智能體編程能力。
觀點網訊:4月16日,阿里通義實驗室宣布開源Qwen3.6-35B-A3B模型。據介紹,這是一款采用稀疏混合專家(MoE)架構的大模型,總參數量達350億,每次推理僅激活30億參數,具備智能體編程能力。
根據公開資料,Qwen3.6-35B-A3B在智能體編程方面表現卓越,大幅超越前代模型,可與Qwen3.5-27B和Gemma4-31B等稠密模型競争,並支持多模态思考能力。
另據介紹,該模型可集成到OpenClaw、ClaudeCode和QwenCode等第三方編程助手中,其開源權重已在HuggingFace和ModelScope平台發布,同時可通過阿里雲百煉API調用並在QwenStudio體驗。
免責聲明:本文内容與數據由觀點根據公開信息整理,不構成投資建議,使用前請核實。
審校:
