Qwen3.6-35B-A3B – 阿里通义开源的混合专家 MoE 模型

Al项目 2026-04-17 12:00:12 AI导航网

Qwen3.6-35B-A3B是什么

Qwen3.6-35B-A3B是阿里通义千问团队推出的开源混合专家(MoE)模型,总参数量350亿,激活参数30亿。模型主打极致推理效率与智能体编程能力,在多项编程基准测试中超越参数规模更大的稠密模型Qwen3.5-27B,显著优于谷歌最新发布的Gemma 4系列模型。作为Qwen3.6系列的首个开源版本,原生支持多模态感知与推理,视觉语言能力已与Claude Sonnet 4.5持平甚至部分超越,是当前最具通用性的开源模型之一。

Qwen3.6-35B-A3B的主要功能

  • 智能体编程:模型具备卓越的Agentic Coding能力,在SWE-bench、Terminal-Bench等编程基准上表现优异,可无缝集成到OpenClaw、Claude Code、Qwen Code等第三方编程助手中。
  • 多模态感知与推理:原生支持视觉语言理解,在MMMU、RealWorldQA等视觉问答基准上表现突出,空间智能优势显著(RefCOCO 92.0、ODInW13 50.8)。
  • 双模式推理:支持思考模式(复杂推理)与非思考模式(快速响应)灵活切换,适应不同任务场景需求。
  • 高效推理:采用稀疏MoE架构,仅激活30亿参数即可实现与数倍规模稠密模型相当的性能,大幅降低推理成本。
  • 工具调用与MCP支持:支持函数调用、代码解释器及MCP(Model Context Protocol),可连接外部工具和API完成复杂任务。
  • 长上下文处理:支持200K上下文窗口,能够处理长文档理解、长程代码生成等任务。

如何使用Qwen3.6-35B-A3B

  • 在线体验:访问 Qwen Studio 官网(https://chat.qwen.ai/),无需注册可直接开始对话,支持文本与图片输入,即时体验模型的编程与多模态能力。
  • API 调用(生产部署)
    • 阿里云百炼平台:登录阿里云百炼控制台,选择模型 qwen3.6-flash 创建 API Key。支持标准 OpenAI 协议(Chat Completions/Responses API)及 Anthropic 协议,可无缝替换现有 GPT/Claude 接口。调用时建议开启 preserve_thinking 参数以保留思维链,优化智能体任务表现。

    • 本地部署:从 Hugging Face下载开源权重,使用 vLLM、Ollama 或 Transformers 加载。

  • 第三方工具集成
    • OpenClaw:在配置文件中设置 Base URL 为阿里云百炼端点,填入 API Key,选择模型名称 qwen3.6-flash,即可在终端中使用该模型替代默认编码助手。

    • Qwen Code:专为 Qwen 系列优化的开源终端 AI 智能体,首次运行输入 /auth 完成阿里云百炼认证,系统自动识别并调用 Qwen3.6-35B-A3B 进行代码生成与工具调用。

    • Claude Code:因 API 兼容 Anthropic 协议,可直接在 Claude Code 配置中替换端点地址与模型名称,获得具备视觉能力的编码体验。

Qwen3.6-35B-A3B的关键信息和使用要求

  • 开源协议:模型权重完全开源,支持本地部署与商用,可在Hugging Face和ModelScope平台下载。

  • 在线体验:通过Qwen Studio可直接交互对话,无需部署可体验完整功能。

  • API调用:即将支持阿里云百炼API,调用名称为qwen3.6-flash,兼容OpenAI规范的Chat Completions和Responses API,以及Anthropic API协议。

  • 硬件要求:相比稠密模型大幅降低本地部署门槛,仅需支持30亿激活参数的显存即可运行,适合个人开发者本地部署。

  • 第三方集成:已适配OpenClaw(Moltbot)、Qwen Code、Claude Code等主流AI编程助手,可直接接入现有开发工作流。

  • 特色功能:API支持preserve_thinking参数,可在消息中保留前序轮次的思维内容,推荐用于复杂智能体任务。

Qwen3.6-35B-A3B的核心优势

  • 极致参数效率:3B激活参数可在编程、推理任务上超越27B稠密模型,实现”小身材大能量”的推理经济性。

  • 顶尖智能体编程能力:在SWE-bench Verified(73.4)、Terminal-Bench 2.0(51.5)等权威编程基准上领先同规模甚至更大规模模型。

  • 视觉能力对标闭源模型:多模态表现与Claude Sonnet 4.5持平,空间智能(RefCOCO 92.0)和文档理解能力尤为突出。

  • 全场景生态兼容:同时支持OpenAI与Anthropic API协议,可无缝替换现有工作流中的模型,降低迁移成本。

Qwen3.6-35B-A3B的项目地址

  • HuggingFace模型库:https://huggingface.co/Qwen/Qwen3.6-35B-A3B

Qwen3.6-35B-A3B的同类竞品对比

对比维度Qwen3.6-35B-A3BQwen3.5-27BGemma 4-31B
架构类型MoE(稀疏)Dense(稠密)Dense(稠密)
总参数量35B27B31B
激活参数量3B27B(全激活)31B(全激活)
SWE-bench Verified73.475.052.0
Terminal-Bench 2.051.541.642.9
MMMU(多模态)81.782.380.4
RealWorldQA85.383.772.3
开源协议Apache 2.0(可商用)Apache 2.0Apache 2.0
上下文长度200K128K128K
多模态支持原生支持需额外适配部分支持
智能体优化深度优化基础支持基础支持
部署成本低(仅需3B显存)高(需27B显存)高(需31B显存)

Qwen3.6-35B-A3B的应用场景

  • AI辅助编程:自动化代码生成、Bug修复、代码重构及代码审查,可集成到IDE作为智能编程助手使用。

  • 智能体开发:构建能够调用工具、浏览网页、执行代码的自主Agent,用于自动化运维、数据分析等工作流。

  • 多模态内容理解:处理图文混合的文档分析、图表解读、视觉问答及视频内容理解任务。

  • 端侧与边缘部署:因激活参数少、推理效率高,适合部署在资源受限的端侧设备或边缘服务器上提供本地化AI服务。

  • 教育科研:作为开源基座模型用于学术研究、算法教学或领域特定的微调训练。

© 版权声明

相关文章