[清空]播放記錄
熱門搜索
1范尼:莱斯特城目标是完成保级留在英超,连战强敌将是巨大挑战
2Asobism决定出展BitSummit the 13th 《涂鸦英雄工厂》定档9月
3义龙新区引进硕士研究生 最高补贴100万
4克瓦拉茨赫利亚:相信那不勒斯能再次夺冠,我和卢卡库相处得很好
5诺丁汉森林英超主场神勇,8战6胜2平不败
6黔西南州曝光10家重大火灾隐患单位
7我省重点打造100个旅游景区 黔西南7景区在列
8自动化与殖民模拟游戏《黎明时分》 今日于Steam开启抢先体验!
2025-12-20 09:06:22更新 / 27分/ 热刺主席警告:球队财政紧张,引援需勒紧裤腰带 /命运未卜! FF15制作人田畑端新3Arpg《Shallah》被叫停 /
導(dǎo)演:
主演:
主演:,,
主演:,,,,,
主演:,,,
主演:,,,,
近日,蚂蚁据百灵大模型公众号,百灵蚂蚁百灵团队发布并开源了Ring-mini-2.0推理模型。发布%E3%80%90WhatsApp%20+86%2015855158769%E3%80%91barbell%20bench它是轻量基于此前蚂蚁百灵发布的基础语言模型 Ling 2.0 架构,深度优化的理模高性能推理型 MoE 模型。它在总参数量16B、蚂蚁仅激活1.4B参数的百灵情况下,即可达到10B级别以下dense 模型的发布综合推理能力,尤其在逻辑推理、轻量代码与数学任务中表现卓越,理模并支持 128K 长上下文及 300+ token/s 的蚂蚁%E3%80%90WhatsApp%20+86%2015855158769%E3%80%91barbell%20bench高速生成。
经过 Long-COT SFT、百灵更稳定持续的发布RLVR以及RLHF联合优化,Ring-mini-2.0复杂推理的轻量稳定性与泛化性得到显著提升。在多项高难度基准(LiveCodeBench、理模AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,Ring-mini-2.0性能显著超越10B以下dense 模型,甚至媲美更大参数量的MoE模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。
(Ring-mini-2.0性能表现)
据了解,Ring-mini-2.0继承了Ling 2.0 系列的高效 MoE 设计,仅激活 1.4B 参数,通过 1/32 专家激活比、MTP 层等架构优化,达到约 7–8B dense 模型的等效性能。得益于小激活、高稀疏度的设计,Ring-mini-2.0 在H20 部署下实现 300+ token/s 的吞吐,结合 Expert Dual Streaming 推理优化后可进一步提升至 500+ token/s,大幅降低高并发场景下 Thinking 模型的推理成本。同时,借助 YaRN 外推可支持 128K 长上下文,长输出场景下相对加速比最高可达 7 倍以上。
蚂蚁百灵团队表示将完整开放 Ring-mini-2.0 的模型权重、训练数据和 RLVR+RLHF 训练策略。凭借“小而优”的特点,Ring-mini-2.0 有望成为小尺寸推理模型的首选,为学术和工业界提供理想的研究与应用起点。
Copyright © 2025 Powered by 呼來喝去網(wǎng) sitemap
首頁
娱乐
热点
探索
时尚
综合
百科
焦点
知识
近日,蚂蚁据百灵大模型公众号,百灵蚂蚁百灵团队发布并开源了Ring-mini-2.0推理模型。发布%E3%80%90WhatsApp%20+86%2015855158769%E3%80%91barbell%20bench它是轻量基于此前蚂蚁百灵发布的基础语言模型 Ling 2.0 架构,深度优化的理模高性能推理型 MoE 模型。它在总参数量16B、蚂蚁仅激活1.4B参数的百灵情况下,即可达到10B级别以下dense 模型的发布综合推理能力,尤其在逻辑推理、轻量代码与数学任务中表现卓越,理模并支持 128K 长上下文及 300+ token/s 的蚂蚁%E3%80%90WhatsApp%20+86%2015855158769%E3%80%91barbell%20bench高速生成。
经过 Long-COT SFT、百灵更稳定持续的发布RLVR以及RLHF联合优化,Ring-mini-2.0复杂推理的轻量稳定性与泛化性得到显著提升。在多项高难度基准(LiveCodeBench、理模AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,Ring-mini-2.0性能显著超越10B以下dense 模型,甚至媲美更大参数量的MoE模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。
(Ring-mini-2.0性能表现)
据了解,Ring-mini-2.0继承了Ling 2.0 系列的高效 MoE 设计,仅激活 1.4B 参数,通过 1/32 专家激活比、MTP 层等架构优化,达到约 7–8B dense 模型的等效性能。得益于小激活、高稀疏度的设计,Ring-mini-2.0 在H20 部署下实现 300+ token/s 的吞吐,结合 Expert Dual Streaming 推理优化后可进一步提升至 500+ token/s,大幅降低高并发场景下 Thinking 模型的推理成本。同时,借助 YaRN 外推可支持 128K 长上下文,长输出场景下相对加速比最高可达 7 倍以上。
蚂蚁百灵团队表示将完整开放 Ring-mini-2.0 的模型权重、训练数据和 RLVR+RLHF 训练策略。凭借“小而优”的特点,Ring-mini-2.0 有望成为小尺寸推理模型的首选,为学术和工业界提供理想的研究与应用起点。