全球AI領(lǐng)域迎來(lái)重大突破,螞蟻集團(tuán)正式推出全球首個(gè)開源混合線性架構(gòu)萬(wàn)億參數(shù)模型——Ring-2.5-1T。這款模型不僅在數(shù)學(xué)邏輯推理領(lǐng)域展現(xiàn)出頂尖實(shí)力,更在長(zhǎng)程任務(wù)執(zhí)行能力上實(shí)現(xiàn)質(zhì)的飛躍,成為開源社區(qū)中兼具高智商與高效能的標(biāo)桿性產(chǎn)品。
在數(shù)學(xué)能力驗(yàn)證方面,Ring-2.5-1T交出令人矚目的成績(jī)單:國(guó)際數(shù)學(xué)奧林匹克競(jìng)賽(IMO)模擬測(cè)試中取得35分金牌水準(zhǔn),中國(guó)數(shù)學(xué)奧林匹克(CMO)更以105分遠(yuǎn)超國(guó)家集訓(xùn)隊(duì)選拔線。其推理能力在復(fù)雜任務(wù)場(chǎng)景中同樣表現(xiàn)驚艷,能夠獨(dú)立完成搜索優(yōu)化、代碼生成等高難度工作。該模型通過(guò)架構(gòu)創(chuàng)新突破傳統(tǒng)技術(shù)瓶頸,在保持32K以上生成長(zhǎng)度的同時(shí),將顯存占用降低至1/10以下,生成吞吐量提升3倍有余,成功破解深度思考與推理效率的"不可能三角"。
技術(shù)實(shí)現(xiàn)層面,模型采用基于Ring-flash-linear-2.0演進(jìn)的混合線性注意力架構(gòu),通過(guò)1:7比例的MLA(多頭潛在注意力)與Lightning Linear Attention協(xié)同工作。訓(xùn)練過(guò)程中創(chuàng)新性采用增量訓(xùn)練策略,將部分GQA(分組查詢注意力)層轉(zhuǎn)化為L(zhǎng)ightning Linear Attention提升長(zhǎng)程推理吞吐量,剩余層通過(guò)近似轉(zhuǎn)換MLA實(shí)現(xiàn)KV Cache極致壓縮。配合QK Norm和Partial RoPE等特性適配,在保持63B激活參數(shù)量的前提下,推理效率較前代產(chǎn)品顯著提升。
在邏輯嚴(yán)謹(jǐn)性訓(xùn)練方面,研究團(tuán)隊(duì)引入密集獎(jiǎng)勵(lì)機(jī)制,對(duì)模型推理過(guò)程進(jìn)行全鏈條監(jiān)控。這種訓(xùn)練方式如同為模型配備"思維導(dǎo)師",重點(diǎn)考察解題步驟的合理性而非單純追求最終結(jié)果,使高階證明技巧掌握度提升40%。配合大規(guī)模全異步Agentic RL訓(xùn)練方法,模型在搜索、編碼等長(zhǎng)鏈條任務(wù)中的自主執(zhí)行能力獲得突破性進(jìn)展,從理論推導(dǎo)型向?qū)崙?zhàn)應(yīng)用型成功轉(zhuǎn)型。
實(shí)際測(cè)試中,模型在抽象代數(shù)證明領(lǐng)域展現(xiàn)驚人實(shí)力。面對(duì)有限群非交換性證明的復(fù)雜命題,Ring-2.5-1T靈活運(yùn)用Cauchy定理,通過(guò)排除階為1、3、9的交換群可能性,最終以Heisenberg群作為反例完成嚴(yán)密論證。在系統(tǒng)級(jí)編程測(cè)試中,模型使用Rust語(yǔ)言從零構(gòu)建高并發(fā)線程池,通過(guò)Arc、Mutex和Condvar實(shí)現(xiàn)任務(wù)分發(fā)邏輯,其設(shè)計(jì)的監(jiān)控線程與崩潰恢復(fù)機(jī)制,有效避免了死鎖等常見并發(fā)問(wèn)題。
同步推出的擴(kuò)散語(yǔ)言模型LLaDA2.1采用非自回歸架構(gòu),實(shí)現(xiàn)535tokens/s的推理速度,在Humaneval+編程任務(wù)中吞吐量達(dá)892tokens/s。該模型具備獨(dú)特的Token編輯與逆向推理能力,支持推理過(guò)程中對(duì)特定文本片段的精準(zhǔn)修正。全模態(tài)大模型Ming-flash-omni-2.0則打通視覺、音頻與文本的底層表征,在實(shí)時(shí)音畫同步創(chuàng)作方面取得重大突破,其泛音頻統(tǒng)一生成框架支持多感官交互的沉浸式體驗(yàn)。
螞蟻集團(tuán)此次技術(shù)布局凸顯平臺(tái)化戰(zhàn)略意圖,通過(guò)構(gòu)建可復(fù)用的AI能力底座,為開發(fā)者提供標(biāo)準(zhǔn)化解決方案。目前Ring-2.5-1T已適配Claude Code、OpenClaw等主流框架,模型權(quán)重與推理代碼在Hugging Face、ModelScope等平臺(tái)全面開放。研究團(tuán)隊(duì)透露,后續(xù)將重點(diǎn)攻克視頻時(shí)序理解、復(fù)雜圖像編輯等全模態(tài)技術(shù)難點(diǎn),推動(dòng)AI在專業(yè)領(lǐng)域的規(guī)模化應(yīng)用落地。
開源地址:
GitHub:https://github.com/inclusionAI/Ring-V2.5
Huggingface:https://huggingface.co/inclusionAI/Ring-2.5-1T
ModelScope:https://www.modelscope.cn/models/inclusionAI/Ring-2.5-1T













