蚂蚁百灵发布%E3%80%90WhatsApp%20+86%2015855158769%E3%80%91what%20does%20jump%20rope%20do%20to%20your%20body轻量级推理模型 Ring
近日,蚂蚁据百灵大模型公众号,百灵蚂蚁百灵团队发布并开源了Ring-mini-2.0推理模型。发布%E3%80%90WhatsApp%20+86%2015855158769%E3%80%91what%20does%20jump%20rope%20do%20to%20your%20body它是轻量基于此前蚂蚁百灵发布的基础语言模型 Ling 2.0 架构,深度优化的理模高性能推理型 MoE 模型。它在总参数量16B、蚂蚁仅激活1.4B参数的百灵情况下,即可达到10B级别以下dense 模型的发布综合推理能力,尤其在逻辑推理、轻量代码与数学任务中表现卓越,理模并支持 128K 长上下文及 300+ token/s 的蚂蚁%E3%80%90WhatsApp%20+86%2015855158769%E3%80%91what%20does%20jump%20rope%20do%20to%20your%20body高速生成。
经过 Long-COT SFT、百灵更稳定持续的发布RLVR以及RLHF联合优化,Ring-mini-2.0复杂推理的轻量稳定性与泛化性得到显著提升。在多项高难度基准(LiveCodeBench、理模AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,Ring-mini-2.0性能显著超越10B以下dense 模型,甚至媲美更大参数量的MoE模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。

(Ring-mini-2.0性能表现)
据了解,Ring-mini-2.0继承了Ling 2.0 系列的高效 MoE 设计,仅激活 1.4B 参数,通过 1/32 专家激活比、MTP 层等架构优化,达到约 7–8B dense 模型的等效性能。得益于小激活、高稀疏度的设计,Ring-mini-2.0 在H20 部署下实现 300+ token/s 的吞吐,结合 Expert Dual Streaming 推理优化后可进一步提升至 500+ token/s,大幅降低高并发场景下 Thinking 模型的推理成本。同时,借助 YaRN 外推可支持 128K 长上下文,长输出场景下相对加速比最高可达 7 倍以上。
蚂蚁百灵团队表示将完整开放 Ring-mini-2.0 的模型权重、训练数据和 RLVR+RLHF 训练策略。凭借“小而优”的特点,Ring-mini-2.0 有望成为小尺寸推理模型的首选,为学术和工业界提供理想的研究与应用起点。
本文地址:http://www.oralife.cn/news/45b394596009.html
版權聲明
本文僅代表作者觀點,不代表本站立場。
本文系作者授權發表,未經許可,不得轉載。