蚂蚁百灵团队近日通过官方公众号宣布,正式开源轻量级推理模型Ring-mini-2.0。该模型基于Ling 2.0架构深度优化,采用高性能MoE(混合专家)设计,在仅激活1.4B参数的情况下,实现了接近10B级稠密模型的综合推理能力。
在多项高难度基准测试中,包括LiveCodeBench、AIME 2025、GPQA等,Ring-mini-2.0展现出卓越性能,尤其在逻辑推理、代码生成与数学任务上表现突出。其输出质量甚至可媲美参数量更大的MoE模型,如gpt-oss-20B-medium。
通过架构优化,包括1/32的专家激活比和MTP层的设计,该模型实现了约7-8B稠密模型的等效性能。同时,模型支持128K长上下文处理,并借助Expert Dual Streaming技术,在H20部署下推理速度可达300+ token/s,优化后更可提升至500+ token/s。
蚂蚁百灵团队承诺将全面开源模型权重、训练数据及RLVR+RLHF训练策略。Ring-mini-2.0以其“小而优”的特性,有望成为学术与工业界在轻量级推理模型领域的重要选择,为AI应用提供更高效的底层支持。