蚂蚁集团 Ling-1T 模型发布,开源万亿参数推理模型,性能领先 GPT-5

 

AI 大事记 2025 年 10 月 9 日消息:蚂蚁集团在 Hugging Face 上开源发布了其首个万亿参数推理大模型 Ling-1T-preview。该模型采用了 Ling-2.0 MoE(Mixture of Experts)架构,拥有 1 万亿参数,约 5000 亿参数在每次推理中激活,训练数据量超过 20 万亿推理密集型 token。

在性能评估方面,Ling-1T-preview 在 AIME 25 测试中取得了 92.6 分,超越了市面上已知的开源模型和 Gemini 2.5 Pro,接近 GPT-5 的 94.6 分。

此外,Ling-1T-preview 在 CodeForces 编程基准测试中得分 94.69,领先于 GPT-5 和其他开源模型,显示出其在代码生成和推理能力方面的强大性能。


🧩 功能解析 + 技术亮点

🎯 Ling-1T 模型概览

  • 架构与参数:Ling-1T-preview 基于 Ling-2.0 MoE 架构,拥有 1 万亿参数,约 5000 亿参数在每次推理中激活。
  • 训练数据:模型在超过 20 万亿推理密集型 token 上进行训练,采用了蚂蚁集团自研的强化学习系统 ASystem 进行 RLVR(Reinforcement Learning with Visual Reasoning)训练。

🛠 使用方式与上传规则

  • 开源平台:Ling-1T-preview 已在 Hugging Face 上开源,供研究人员和开发者使用。
  • 使用要求:用户需具备一定的 AI 模型使用经验,建议在高性能计算环境中部署使用。

🌐 补充视角 + 行业观察

  • 国产硬件支持:蚂蚁集团在 Ling-1T 的训练过程中,使用了国产 GPU,如华为的昇腾芯片,降低了对 NVIDIA 高端芯片的依赖,减少了训练成本约 20%。
  • 开源策略:Ling-1T-preview 的开源发布,体现了蚂蚁集团在 AI 领域的开放合作态度,促进了国内 AI 社区的发展。
  • 行业影响:Ling-1T 的发布,标志着中国在大规模 AI 模型研发方面取得了重要进展,提升了国内 AI 技术的国际竞争力。

⚠ 风险 /挑战 /观察点

方向潜在问题 /不确定性
推理性能稳定性在不同硬件环境下,模型的推理性能可能存在差异,需要进一步验证。
开源生态建设Ling-1T-preview 的开源能否吸引足够的开发者参与,尚需观察。
商业化路径蚂蚁集团如何将 Ling-1T 的技术优势转化为商业价值,仍需探索。

🧠 总结 / 思考

核心回顾

  • 蚂蚁集团发布了 Ling-1T-preview,这是其首个万亿参数推理大模型,采用了 Ling-2.0 MoE 架构,训练数据量超过 20 万亿推理密集型 token。
  • 该模型在 AIME 25 和 CodeForces 等基准测试中表现出色,推理能力超越 GPT-5。
  • Ling-1T-preview 已在 Hugging Face 上开源,供研究人员和开发者使用。

值得思考 / 我的疑问

  1. Ling-1T 的推理性能在实际应用中能否保持稳定?
  2. 蚂蚁集团如何通过开源策略促进国内 AI 社区的发展?
  3. Ling-1T 的商业化路径是什么?蚂蚁集团如何将其技术优势转化为商业价值?
  4. Ling-1T 的发布对国内外 AI 产业格局有何影响?

金句送给你

“Ling-1T 的发布,标志着中国在大规模 AI 模型研发方面取得了重要进展,提升了国内 AI 技术的国际竞争力。”