阿里巴巴正式推出新一代开源大模型千问Qwen3.5-Plus,在性能指标上与Gemini 3 Pro持平,成为全球最强的开源模型。该模型总参数达3970亿,但实际激活参数仅170亿,通过架构创新实现了以小博大的技术突破。相较于万亿参数的Qwen3-Max,新模型不仅性能更优,部署显存占用降低60%,推理吞吐量最高可提升19倍,API调用成本每百万Token仅0.8元,仅为Gemini 3 Pro的十八分之一。
千问3.5系列最显著的技术革新在于从纯文本模型向原生多模态模型的跨越。不同于前代仅基于文本token训练,新模型采用视觉与文本混合预训练方式,新增中英文、多语言、STEM学科及推理数据,使模型具备"观察"世界的能力。在MMLU-Pro知识推理评测中取得87.8分,超越GPT-5.2;博士级难题GPQA测评达88.4分,优于Claude 4.5;指令遵循IFBench以76.5分刷新纪录,在通用Agent、搜索Agent等基准测试中全面领先Gemini 3 Pro和GPT-5.2。
视觉能力的飞跃成为千问3.5的核心优势。在多模态推理、视觉问答、文本识别、空间智能、视频理解等权威评测中均取得最佳成绩。该模型支持长达2小时(100万token上下文)的视频直接输入,可完成长视频内容分析与摘要生成。更突破性地将视觉理解与代码能力融合,通过图搜和生图工具,能将手绘界面草图直接转换为前端代码,或通过截图定位修复UI问题,使视觉编程成为实用生产力工具。在学科解题、任务规划等场景中,其空间定位和带图推理能力较专项模型Qwen3-VL提升显著。
模型效率的革命性提升源于架构创新。研究团队将斩获2025 NeurIPS最佳论文的门控技术,与线性注意力机制、稀疏混合专家(MoE)架构深度融合,在保持3970亿总参数规模的同时,将激活参数压缩至170亿。通过训练稳定优化和多token预测技术,在32K常用上下文场景中推理吞吐量提升8.6倍,256K超长上下文场景下最高提升19倍。阿里云AI基础设施的创新支持,使混合数据训练吞吐量接近纯文本模型水平,FP8/FP32精度策略在训练数十万亿token时,内存占用减少50%,训练速度提升10%。
在Agent应用领域,千问3.5实现重大突破。模型可自主操作手机电脑完成复杂任务,移动端支持更多主流应用与指令,PC端能处理跨应用数据整理、自动化流程等高阶操作。团队构建的异步强化学习框架将端到端加速比提升至3-5倍,插件式智能体支持规模扩展至百万级。1月15日上线的全球首个消费级AI购物Agent,在春节期间6天内协助用户完成1.2亿笔订单交易,验证了大规模真实场景商业化能力。
自2023年开源以来,千问系列已发布400余个模型,覆盖全尺寸、全模态领域,全球下载量突破10亿次,单月下载量超过DeepSeek、meta、OpenAI等企业2至8倍的总和。开发者基于千问开发的衍生模型超20万个,形成全球最大开源生态。为满足多语言需求,千问3.5扩展支持201种语言,词表规模从15万增至25万,小语种编码效率最高提升60%。目前千问APP和PC端已接入Qwen3.5-Plus,开发者可通过魔搭社区、HuggingFace下载模型,或通过阿里云百炼平台调用API服务。据悉,阿里将持续开源不同规格的千问3.5系列模型,性能更强的旗舰版Qwen3.5-Max即将发布。




