吞吐量提升19倍!千问摊牌了(:AI春节档大魔王就是在下

  更新时间:2026-02-17 00:07   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

Qwen让千问充满想象 Qwen3.随Qwen3.全能AI栈玩家 Qwen3.

<p class="f_center"><br><br></p> <p id="4ASVBOVQ">选择了除夕!这一[天,Qwen3.5发布的时间点有些微妙。</p> <p id="4ASVBOVS">马年春节在即,各家原生AI App红包大战已经进入白热化。与其说这是一次红包大战,不如说是一次应用入口的争夺。哪家AI厂商能先把模型能力嵌进现实场景,就可能在AGI竞逐的赛道上抢占先机。</p> <p id="4ASVBOVU"><strong>所以,Qwen3.5选择在此时登场,无疑在“红包大战”的氛围中,完成了一次对自身AI技术和能力的背书。</strong></p> <p id="4ASVBP00">官方数据显示,Qwen3.5-Plus只用了不到3970亿参数,激活仅170亿,性能就超过上一代万亿模型Qwen3.0-Max。</p> <p id="4ASVBP02">Qwen3.5延续了“发布即开源”的传统,在多模态理解、复杂推理与Agent能力上对标闭源第一梯队,这是一种能力与效率同时兑现的信号。</p> <p id="4ASVBP04">过去一段时间,行业内对于开源生态的认知在不断刷新。Hugging Face CEO德朗格此前公开表示,开源模型正在以前所未有的速度逼近闭源体系。</p> <p id="4ASVBP06">而在模型研发的策略上,单纯追求参数规模的时代已逐渐褪去。AI2资深研究员Nathan Lambert曾在一档访谈中提出:“单位算力释放多少智能,正在成为新的竞争核心。”</p> <p id="4ASVBP08"><strong>这一点在Qwen3.5上体现得尤为明显。通过架构层的系统优化,Qwen3.5-Plus推理效率大幅提升,最大推理吞吐量可提升至19倍。这正是AI超级入口背后真正需要的底层支撑。</strong></p> <p id="4ASVBP0A">换言之,Qwen3.5也许是AI春节档真正的“杀手锏”。</p> <p id="4ASVBP0C">当模型足够强、成本足够低、算力栈足够完整,AI才有可能成为现实世界的映射与执行层。</p> <p id="4ASVBP0E">某种程度上,阿里正在尝试构建一套类似Google的AI栈:上层是Qwen模型作为通用智能基座,中层是阿里云作为分发与算力平台,底层是以平头哥为代表的自研芯片体系。</p> <p id="4ASVBP0G">随着AI“三驾马车”的产业布局成型,阿里有望在全球AI竞争格局已经构筑起名为“生态”的护城河。</p> <p id="4ASVBP0I"><strong>01</strong></p> <p id="4ASVBP0J"><strong>突破开源上限,Qwen让千问充满想象</strong></p> <p id="4ASVBP0L">Qwen3.5不是一次简单迭代。从Qwen2.5补强多模态与长上下文,到Qwen3引入MoE与推理增强,再到Qwen3.5强化综合能力与真实场景表现,Qwen几乎每代都在关键能力上前进一步。</p> <p id="4ASVBP0N">在技术指标上,Qwen3.5-Plus用397B总参数、17B激活规模完成一次“以小胜大”的架构跃迁。其性能媲美Gemini-3-pro、GPT-5.2等顶级闭源模型,同时相较上一代Qwen3-Max,部署成本下降60%、推理速度提升8倍。</p> <p class="f_center"><br><br></p> <p id="4ASVBP0P">据了解,Qwen3.5-Plus的API价格每百万Token低至0.8元,仅为Gemini 3 Pro的1/18。这一效能提升得益于千问团队自研的门控技术成果,结合线性注意力机制与稀疏混合专家MoE模型架构,才实现了近400B总参数,激活仅17B的极致模型效率。</p> <p id="4ASVBP0R">对于在C端持续发力的千问而言,Qwen3.5的这一效能提升的意义不言自明。硅谷知名投资人Elad Gil几周前接受采访时指出,<strong>随着 AI 竞争进入成熟阶段,推动 AI 推理成本下降、提高模型部署效率将成为真正的竞争核心。</strong></p> <p id="4ASVBP0T">在春节红包大战的流量高峰下,这种效率跃迁变得尤为关键,想要成为C端的AI头部产品,模型服务一定要有能力承接真实用户的高频使用。</p> <p id="4ASVBP0V"><strong>这个春节档,千问App也加入红包战局,以“请客送奶茶”等真实办事场景拉动交互体验,把能力直接推向生活场景,6天时间就帮用户完成了1.2亿笔订单,在全球首次实现大规模真实世界任务执行和商业化验证。</strong></p> <p id="4ASVBP11"><strong>Qwen3.5落地后,有望进一步优化千问App的agent能力,提升“AI办事”的效率和准确性。</strong>当Agent能力、多模态理解与复杂推理被同时强化,Qwen正让千问APP的未来充满想象。</p> <p id="4ASVBP13">另一方面前几代的Qwen大语言模型不同,Qwen3.5在跨模态理解力上实现了能力跃迁,“原生多模态”让视觉与语言在同一空间内学习,减少拼装带来的割裂。</p> <p id="4ASVBP15">这意味着,Qwen3.5不只是识别图片,而能做像素级定位与精细处理,把视觉信息当作可推理的结构化输入。在视频理解上,Qwen3.5能对图像进行像素级空间定位与代码级精细处理,能理解长达2小时视频中的时序演变与因果关系。</p> <p id="4ASVBP17">更具产品想象力的是“草图到代码”:Qwen3.5可以把手绘意图直接转成可运行前端,甚至可以作为视觉智能体自主操控手机与电脑,跨应用完成多步骤复杂任务,让模型在创作与开发之间充当翻译器。</p> <p id="4ASVBP19">出色的视觉能力,让Qwen3.5也实现了从Agent框架到Agent应用的突破。目前,千问团队构建了一个可扩展的Agent异步强化学习框架,端到端可加速3到5倍,并将插件式智能体Agent支持扩展至百万级规模。</p> <p id="4ASVBP1B">事实上,Qwen3.5只是阿里多模态布局的冰山一角。目前,阿里在多模态理解和多模态生成领域均取得了突破性成果。</p> <p id="4ASVBP1D">就在一周前,千问刚刚发布集生图和编辑能力于一身的Qwen-image-2.0,在权威榜单AI Arena中位居全球前三,被誉为国产Nano Banana Pro。如今,随Qwen3.5在视觉理解能力上又实现了突破,Qwen模型矩阵的全模态能力取得了跨越式进展。</p> <p id="4ASVBP1F"><strong>到这一步,模型就已经开始具备执行现实操作”的雏形。如果说过去的千问更多承担“回答问题”,那么随着Qwen进入3.5版本,它更可能成为“解决问题”的核心引擎。</strong></p> <p id="4ASVBP1H"><strong>02</strong></p> <p id="4ASVBP1I"><strong>三驾马车牵引,阿里要做全能AI栈玩家</strong></p> <p id="4ASVBP1K">Qwen3.5所带来的效率跃迁,在本质上改变了模型与算力之间的依赖关系,模型优化的重心也从“规模竞赛”转向“系统协同”。</p> <p id="4ASVBP1M">这一点与Google近年来的AI战略路径不谋而合。Google之所以能长期站在AI第一梯队,不是因为每一代模型都能领先行业,而在于“协同”二字。</p> <p id="4ASVBP1O">在Google的AI战略中,Gemini的迭代一直与Vertex AI平台及TPU硬件协同演进,形成“模型—平台—算力”一体化结构。</p> <p id="4ASVBP1Q"><strong>阿里正在用“千问—阿里云—平头哥”的三驾马车,打造同一套全栈AI体系:模型负责能力密度,云负责规模化交付,芯片负责自主算力基座,同时增加供给侧的弹性。</strong></p> <p id="4ASVBP1S">在算力侧,平头哥作为阿里自研芯片体系的重要一环,持续推进AI芯片与系统级优化布局。新一代AI芯片如真武810E已在线上部署于阿里云集群,丰富了阿里在算力侧的自主能力,为大模型训练与部署提供更深层次算力集成基础。</p> <p id="4ASVBP1U">根据Omdia的数据,阿里云在中国AI云市场份额已达到35.8%,说明阿里已经具备把模型变成“可交付服务”的平台底盘。</p> <p id="4ASVBP20"><strong>与此同时,全球知名IT研究与咨询机构Gartner在2025年“GenAI技术创新指南”中将阿里云在GenAI云基础设施、工程与模型等多个维度列入“Emerging Leaders(新兴领导者)”象限,意味着其产品成熟度与市场影响力已进入全球主流竞争区间。</strong></p> <p class="f_center"><br><br></p> <p id="4ASVBP22">纵观全球AI产业,Google与阿里是少数能在模型、平台、算力三条线同时给出体系答案的代表性玩家。</p> <p id="4ASVBP24">Vertex AI可以把模型能力封装成企业可持续调用的服务,同时提供新的商业化订阅入口。TPU的长期投入则体现了对单位推理成本与算力供给主动权的控制,这是Google AI竞争力的重要来源。</p> <p id="4ASVBP26">对照这一结构,Qwen3.5的效能提升为阿里云的规模化部署创造了条件,使模型能力可以在更低资源消耗下完成高并发服务。</p> <p id="4ASVBP28"><strong>与Google以闭源平台为核心的路径不同,阿里选择以开源驱动生态扩散,再通过云端承接规模化交付,形成另一种全栈逻辑,既更广泛、更低门槛的创新基础设施。</strong></p> <p id="4ASVBP2A">在开源生态层面,Qwen已成为全球下载量领先的开源模型之一。公开数据显示,其衍生模型数量突破20万,累计下载量超10亿次,Hugging Face开源榜单前列长期由通义系列占据;ModelScope聚集超12万模型,服务超2000万开发者。模型热度正在向产业落地转化。</p> <p id="4ASVBP2C">传统闭源模式下,企业往往必须依赖平台提供方的API和许可,不仅成本随使用规模线性增长,还面临定制能力有限的问题。对比之下,开源模型能够在本地部署、深度微调,可以对不同行业场景进行纵向优化和创新迭代。</p> <p id="4ASVBP2E">利用这种开放路线,阿里云已经迅速进入产业腹地。国家电网基于千问打造“光明电力大模型”,专业能力较基座模型提升20%;工商银行用Qwen-VL-Max落地“商户智能审核助手”,实现多模态风控自动化;宝马、比亚迪、荣耀等厂商把千问能力嵌入智能座舱与终端设备。</p> <p id="4ASVBP2G"><strong>庞大的开源生态支持下,Qwen已经嵌入工业生产线、金融风控系统、能源调度平台与消费电子终端之中,成为真实场景背后的智能基座。</strong></p> <p id="4ASVBP2I">“阿里通义千问选择开放路线,打造AI时代的Android。”2025年云栖大会上,阿里巴巴CEO吴泳铭曾这样描述Qwen的未来愿景。如今,Qwen3.5正驱动着这一愿景逐渐照进现实。</p>

编辑:房富蓉