4月30日蚂蚁集团开源Ling-2.6-1T 万亿参数大模型主打快思考适配国产算力

2026 年 4 月 30 日,蚂蚁科技集团股份有限公司旗下百灵大模型(BaiLing large model, Ling)团队通过 HuggingFace、ModelScope 等全球主流开源平台,正式向全球开发者开源其万亿参数级综合旗舰模型 Ling-2.6-1T。这一举措标志着蚂蚁集团在大模型技术开源领域的又一重要进展,旨在推动人工智能技术从单纯的参数规模竞赛转向实际应用价值创造,为全球开发者提供高效、低成本、适配国产算力的万亿级大模型解决方案。

一、核心技术架构:创新混合架构支撑 "快思考" 机制

Ling-2.6-1T 作为蚂蚁百灵大模型家族的旗舰产品,并非盲目追求参数规模的堆叠,而是通过系统性技术创新构建了独特的 "快思考" 机制。该模型采用创新的 MLA(Multi-Layer Aggregation)与 LinearAttention 混合架构,结合动态过程冗余抑制的强化奖励策略,从根本上改变了传统大模型依赖冗长思考链的推理模式。

官方数据显示,Ling-2.6-1T 虽然具备 1 万亿总参数规模,但在实际推理过程中每个 token 仅激活约 63B 参数,通过这种高效的参数激活机制,实现了智能水平与计算效率的平衡。该模型将 Token 消耗降低 30% 以上,全流程评估仅需 1600 万 tokens 即可完成,相较同类产品降低约 75% 的输出成本,为大规模商业应用奠定了成本基础。

在推理性能方面,Ling-2.6-1T 通过线性注意力机制大幅降低了计算复杂度,将传统注意力机制的 O (n²) 复杂度优化为 O (n),使推理速度提升 40% 以上,延迟降低 50% 左右,在保持万亿参数智能上限的同时,实现了 "更快思考、更低延迟、更少消耗" 的核心优势。

二、性能评测:综合能力对标行业标杆,专项任务领跑开源领域

根据蚂蚁百灵大模型团队发布的官方评测报告,Ling-2.6-1T 在综合智能评测中已达到 GPT-5.4 非推理模式的基准水平,在代码生成、工具链调用、多步骤任务执行等专项测试中展现出显著优势。

在代码生成领域,Ling-2.6-1T 在 SWE-bench 代码缺陷修复任务中正确率达 82.3%,较当前开源领域领先模型提升 15.7 个百分点;在 HumanEval 代码生成任务中通过率达 78.9%,位居开源万亿参数模型首位。在工具链调用方面,该模型支持超过 200 种主流 API 工具的自动调用,工具选择准确率达 91.5%,调用成功率达 89.7%,大幅提升了复杂任务的自动化处理能力。

在数学推理与多步骤任务执行方面,Ling-2.6-1T 在 GSM8K 数学推理数据集上准确率达 89.2%,在 MATH 数据集上达 67.5%,在需要多轮推理的复杂任务中,通过 "快思考" 机制减少无效推理步骤,任务完成效率提升 35% 以上。这些性能指标均通过第三方权威评测机构验证,相关数据已在模型开源页面完整披露。

三、国产算力适配:全栈兼容国内主流芯片,降低部署门槛

Ling-2.6-1T 模型针对国产算力进行了深度优化,已实现对华为昇腾 910B、寒武纪思元 370、壁仞 BR100 等国内主流 AI 芯片的全栈兼容,无需额外修改即可在这些国产算力平台上部署运行。

蚂蚁百灵大模型团队表示,Ling-2.6-1T 采用 FP8 低精度推理技术,在国产算力平台上可实现与英伟达 A100 芯片相当的推理性能,同时将硬件成本降低 60% 以上。该模型支持分布式部署,最小部署规模仅需 8 张国产 AI 芯片,即可实现万亿参数模型的实时推理,大幅降低了中小企业与开发者使用万亿级大模型的门槛。

此外,Ling-2.6-1T 还提供了模型压缩工具链,支持开发者根据自身算力条件将模型压缩至 200B-500B 参数规模,压缩后模型性能保留率达 90% 以上,进一步提升了模型的适配性与部署灵活性。

四、开源生态建设:全方位支持开发者,推动应用落地

为助力开发者快速上手与应用创新,蚂蚁集团在开源 Ling-2.6-1T 的同时,同步发布了完整的开发工具链、模型微调指南、应用场景案例及技术支持文档。开发者可通过 HuggingFace(https://huggingface.co/inclusionAI/Ling-2.6-1T)和 ModelScope(https://modelscope.cn/models/inclusionAI/Ling-2.6-1T)平台获取模型权重、代码及相关资源。

蚂蚁百灵大模型团队还宣布启动 "Ling 开发者扶持计划",投入 1 亿元专项基金,用于支持基于 Ling-2.6-1T 模型的应用创新项目,重点扶持金融科技、企业服务、智能制造等领域的开发者团队。该计划将提供算力支持、技术指导、商业对接等全方位服务,推动大模型技术在实际业务场景中的落地应用。

在技术支持方面,蚂蚁集团将通过官方论坛、开发者社区、定期技术直播等方式,为全球开发者提供持续的技术支持与问题解答,同时建立模型迭代反馈机制,根据开发者的实际需求持续优化模型性能与功能。

五、行业影响:引领大模型发展新方向,推动产业智能化升级

Ling-2.6-1T 的开源标志着大模型技术发展进入新的阶段,即从单纯追求参数规模的 "军备竞赛" 转向注重实际应用价值的 "效能竞赛"。蚂蚁集团相关负责人表示,当前大模型技术面临的核心挑战并非参数不够多,而是如何在保持智能水平的前提下,降低部署成本、提升推理效率、适配多元算力,真正实现规模化商业应用。

业内专家认为,Ling-2.6-1T 的 "快思考" 机制与国产算力适配能力,为大模型技术的产业化应用提供了重要参考范式,有望推动人工智能技术在金融、医疗、教育、工业等领域的深度融合,加速数字经济与实体经济的融合发展。

截至 2026 年 4 月 30 日 18 时,Ling-2.6-1T 模型在 HuggingFace 平台的下载量已突破 5000 次,ModelScope 平台下载量达 3200 次,吸引了来自全球各地的开发者参与模型应用与二次开发。蚂蚁集团表示,将持续加大在大模型技术领域的研发投入,推动更多高效、低成本的 AI 技术开源,助力全球人工智能产业健康发展。