Qwen3.6-35B-A3B是什么
Qwen3.6-35B-A3B是阿里通义千问团队推出的开源混合专家(MoE)模型,总参数量350亿,激活参数30亿。模型主打极致推理效率与智能体编程能力,在多项编程基准测试中超越参数规模更大的稠密模型Qwen3.5-27B,显著优于谷歌最新发布的Gemma 4系列模型。作为Qwen3.6系列的首个开源版本,原生支持多模态感知与推理,视觉语言能力已与Claude Sonnet 4.5持平甚至部分超越,是当前最具通用性的开源模型之一。

Qwen3.6-35B-A3B的主要功能
- 智能体编程:模型具备卓越的Agentic Coding能力,在SWE-bench、Terminal-Bench等编程基准上表现优异,可无缝集成到OpenClaw、Claude Code、Qwen Code等第三方编程助手中。
- 多模态感知与推理:原生支持视觉语言理解,在MMMU、RealWorldQA等视觉问答基准上表现突出,空间智能优势显著(RefCOCO 92.0、ODInW13 50.8)。
- 双模式推理:支持思考模式(复杂推理)与非思考模式(快速响应)灵活切换,适应不同任务场景需求。
- 高效推理:采用稀疏MoE架构,仅激活30亿参数即可实现与数倍规模稠密模型相当的性能,大幅降低推理成本。
- 工具调用与MCP支持:支持函数调用、代码解释器及MCP(Model Context Protocol),可连接外部工具和API完成复杂任务。
- 长上下文处理:支持200K上下文窗口,能够处理长文档理解、长程代码生成等任务。
如何使用Qwen3.6-35B-A3B
- 在线体验:访问 Qwen Studio 官网(https://chat.qwen.ai/),无需注册可直接开始对话,支持文本与图片输入,即时体验模型的编程与多模态能力。
- API 调用(生产部署)
阿里云百炼平台:登录阿里云百炼控制台,选择模型
qwen3.6-flash创建 API Key。支持标准 OpenAI 协议(Chat Completions/Responses API)及 Anthropic 协议,可无缝替换现有 GPT/Claude 接口。调用时建议开启preserve_thinking参数以保留思维链,优化智能体任务表现。本地部署:从 Hugging Face下载开源权重,使用 vLLM、Ollama 或 Transformers 加载。
- 第三方工具集成
OpenClaw:在配置文件中设置 Base URL 为阿里云百炼端点,填入 API Key,选择模型名称
qwen3.6-flash,即可在终端中使用该模型替代默认编码助手。Qwen Code:专为 Qwen 系列优化的开源终端 AI 智能体,首次运行输入
/auth完成阿里云百炼认证,系统自动识别并调用 Qwen3.6-35B-A3B 进行代码生成与工具调用。Claude Code:因 API 兼容 Anthropic 协议,可直接在 Claude Code 配置中替换端点地址与模型名称,获得具备视觉能力的编码体验。
Qwen3.6-35B-A3B的关键信息和使用要求
开源协议:模型权重完全开源,支持本地部署与商用,可在Hugging Face和ModelScope平台下载。
在线体验:通过Qwen Studio可直接交互对话,无需部署可体验完整功能。
API调用:即将支持阿里云百炼API,调用名称为
qwen3.6-flash,兼容OpenAI规范的Chat Completions和Responses API,以及Anthropic API协议。硬件要求:相比稠密模型大幅降低本地部署门槛,仅需支持30亿激活参数的显存即可运行,适合个人开发者本地部署。
第三方集成:已适配OpenClaw(Moltbot)、Qwen Code、Claude Code等主流AI编程助手,可直接接入现有开发工作流。
特色功能:API支持
preserve_thinking参数,可在消息中保留前序轮次的思维内容,推荐用于复杂智能体任务。
Qwen3.6-35B-A3B的核心优势
极致参数效率:3B激活参数可在编程、推理任务上超越27B稠密模型,实现”小身材大能量”的推理经济性。
顶尖智能体编程能力:在SWE-bench Verified(73.4)、Terminal-Bench 2.0(51.5)等权威编程基准上领先同规模甚至更大规模模型。
视觉能力对标闭源模型:多模态表现与Claude Sonnet 4.5持平,空间智能(RefCOCO 92.0)和文档理解能力尤为突出。
全场景生态兼容:同时支持OpenAI与Anthropic API协议,可无缝替换现有工作流中的模型,降低迁移成本。
Qwen3.6-35B-A3B的项目地址
- HuggingFace模型库:https://huggingface.co/Qwen/Qwen3.6-35B-A3B
Qwen3.6-35B-A3B的同类竞品对比
| 对比维度 | Qwen3.6-35B-A3B | Qwen3.5-27B | Gemma 4-31B |
|---|---|---|---|
| 架构类型 | MoE(稀疏) | Dense(稠密) | Dense(稠密) |
| 总参数量 | 35B | 27B | 31B |
| 激活参数量 | 3B | 27B(全激活) | 31B(全激活) |
| SWE-bench Verified | 73.4 | 75.0 | 52.0 |
| Terminal-Bench 2.0 | 51.5 | 41.6 | 42.9 |
| MMMU(多模态) | 81.7 | 82.3 | 80.4 |
| RealWorldQA | 85.3 | 83.7 | 72.3 |
| 开源协议 | Apache 2.0(可商用) | Apache 2.0 | Apache 2.0 |
| 上下文长度 | 200K | 128K | 128K |
| 多模态支持 | 原生支持 | 需额外适配 | 部分支持 |
| 智能体优化 | 深度优化 | 基础支持 | 基础支持 |
| 部署成本 | 低(仅需3B显存) | 高(需27B显存) | 高(需31B显存) |
Qwen3.6-35B-A3B的应用场景
AI辅助编程:自动化代码生成、Bug修复、代码重构及代码审查,可集成到IDE作为智能编程助手使用。
智能体开发:构建能够调用工具、浏览网页、执行代码的自主Agent,用于自动化运维、数据分析等工作流。
多模态内容理解:处理图文混合的文档分析、图表解读、视觉问答及视频内容理解任务。
端侧与边缘部署:因激活参数少、推理效率高,适合部署在资源受限的端侧设备或边缘服务器上提供本地化AI服务。
教育科研:作为开源基座模型用于学术研究、算法教学或领域特定的微调训练。
