蚂蚁集团 Ling-1T 模型发布,开源万亿参数推理模型,性能领先 GPT-5
AI 大事记 2025 年 10 月 9 日消息:蚂蚁集团在 Hugging Face 上开源发布了其首个万亿参数推理大模型 Ling-1T-preview。该模型采用了 Ling-2.0 MoE(Mixture of Experts)架构,拥有 1 万亿参数,约 5000 亿参数在每次推理中激活,训练数据量超过 20 万亿推理密集型 token。
在性能评估方面,Ling-1T-preview 在 AIME 25 测试中取得了 92.6 分,超越了市面上已知的开源模型和 Gemini 2.5 Pro,接近 GPT-5 的 94.6 分。
此外,Ling-1T-preview 在 CodeForces 编程基准测试中得分 94.69,领先于 GPT-5 和其他开源模型,显示出其在代码生成和推理能力方面的强大性能。
🧩 功能解析 + 技术亮点
🎯 Ling-1T 模型概览
- 架构与参数:Ling-1T-preview 基于 Ling-2.0 MoE 架构,拥有 1 万亿参数,约 5000 亿参数在每次推理中激活。
- 训练数据:模型在超过 20 万亿推理密集型 token 上进行训练,采用了蚂蚁集团自研的强化学习系统 ASystem 进行 RLVR(Reinforcement Learning with Visual Reasoning)训练。
🛠 使用方式与上传规则
- 开源平台:Ling-1T-preview 已在 Hugging Face 上开源,供研究人员和开发者使用。
- 使用要求:用户需具备一定的 AI 模型使用经验,建议在高性能计算环境中部署使用。
🌐 补充视角 + 行业观察
- 国产硬件支持:蚂蚁集团在 Ling-1T 的训练过程中,使用了国产 GPU,如华为的昇腾芯片,降低了对 NVIDIA 高端芯片的依赖,减少了训练成本约 20%。
- 开源策略:Ling-1T-preview 的开源发布,体现了蚂蚁集团在 AI 领域的开放合作态度,促进了国内 AI 社区的发展。
- 行业影响:Ling-1T 的发布,标志着中国在大规模 AI 模型研发方面取得了重要进展,提升了国内 AI 技术的国际竞争力。
⚠ 风险 /挑战 /观察点
| 方向 | 潜在问题 /不确定性 |
|---|---|
| 推理性能稳定性 | 在不同硬件环境下,模型的推理性能可能存在差异,需要进一步验证。 |
| 开源生态建设 | Ling-1T-preview 的开源能否吸引足够的开发者参与,尚需观察。 |
| 商业化路径 | 蚂蚁集团如何将 Ling-1T 的技术优势转化为商业价值,仍需探索。 |
🧠 总结 / 思考
核心回顾
- 蚂蚁集团发布了 Ling-1T-preview,这是其首个万亿参数推理大模型,采用了 Ling-2.0 MoE 架构,训练数据量超过 20 万亿推理密集型 token。
- 该模型在 AIME 25 和 CodeForces 等基准测试中表现出色,推理能力超越 GPT-5。
- Ling-1T-preview 已在 Hugging Face 上开源,供研究人员和开发者使用。
值得思考 / 我的疑问
- Ling-1T 的推理性能在实际应用中能否保持稳定?
- 蚂蚁集团如何通过开源策略促进国内 AI 社区的发展?
- Ling-1T 的商业化路径是什么?蚂蚁集团如何将其技术优势转化为商业价值?
- Ling-1T 的发布对国内外 AI 产业格局有何影响?
金句送给你
“Ling-1T 的发布,标志着中国在大规模 AI 模型研发方面取得了重要进展,提升了国内 AI 技术的国际竞争力。”