阿里巴巴發佈機器人AI基礎模型RynnBrain,該模型在16項具身智能評測中刷新紀錄,表現超越谷歌、英偉達等主流模型。RynnBrain通過集成時空記憶與推理能力,使機器人能在複雜場景中實現自主任務規劃與多任務連續執行。
2月10日, $阿里巴巴 (BABA.US)$ 正式推出機器人AI基礎模型RynnBrain。該開源模型旨在爲機器人賦予感知、決策與執行能力,推動其在現實場景中的自主任務完成。
RynnBrain由阿里巴巴達摩院自主研發,具備環境交互、時空理解及任務分解規劃等核心能力。該模型可協助機器人完成物體識別與定位、運動軌跡預測,並在廚房、工廠流水線等動態複雜環境中實現精準導航與自主操作。
根據阿里巴巴公佈的測試數據,RynnBrain在多項權威評測中表現突出,超越 $谷歌-C (GOOG.US)$ Gemini Robotics-ER 1.5及 $英偉達 (NVDA.US)$ Cosmos-Reason2等業界主流模型。該模型已在16項具身開源評測榜單中刷新紀錄(SOTA)。

當前,機器人技術正成爲全球科技競爭與產業轉型的關鍵賽道,人形機器人等前沿方向更被視爲重塑製造業與服務行業生態的重要驅動。阿里巴巴此次發佈具備「思考大腦」屬性的基礎模型,不僅體現其在AI核心技術領域的持續投入,也展現出推動技術標準化與產業落地的明確路徑。
時空記憶與推理能力突破
RynnBrain的核心技術突破在於首次爲機器人系統集成了時空記憶與空間推理能力。通過將這兩項關鍵能力植入模型架構,機器人得以在執行多任務時保持工作狀態的連續性與一致性。
在具體應用中,搭載該模型的機器人若在執行任務A時被中斷並轉向任務B,能夠準確記憶任務A的時空節點與執行進度,在任務B完成後自主恢復此前中斷的工作流程。
該模型融合了環境認知、精準定位、邏輯推理與任務規劃等多維能力,並展現出較強的可擴展性。基於RynnBrain基礎框架,開發者僅需使用數百條數據進行微調,即可高效訓練出適用於導航、規劃與動作控制等不同場景的專用模型。
全系列開源策略
達摩院此次開源了RynnBrain系列的全部七個模型,涵蓋從20億參數版本到30B混合專家(MoE)架構等多種規格。該系列基於Qwen3-VL視覺語言模型訓練,已在Hugging Face與GitHub等平台開放獲取。
其中,業界首個採用MoE架構的30B具身模型,旨在提升機器人動作的流暢性與響應速度。爲規範評估標準,達摩院同步發佈了全新評測基準RynnBrain-Bench,專注於時空細粒度任務評測,填補了當前行業在該領域的評估空白。
達摩院具身智能實驗室負責人趙德麗表示:
「RynnBrain首次實現了大腦對物理世界的深度理解與可靠規劃,爲大小腦分層架構下的通用具身智能邁出關鍵一步。我們期待它加速AI從數字世界走向真實物理場景的落地進程。」
具身智能佈局加速產業化
中國科技企業在人工智能領域持續加大開源投入,形成以開放協作爲特點的技術發展路徑。在具身智能等前沿方向,開源策略有助於匯聚全球開發者資源,加速技術迭代與生態構建。
機器人技術被視爲推動產業升級的關鍵領域。政策層面已明確將包括人形機器人在內的智能機器人作爲重點發展方向,以期通過技術創新重塑製造業與服務業的運營模式。
達摩院在該領域持續推進技術開放,已先後開源融合世界模型與視覺語言模型的WorldVLA、環境理解模型RynnEC等多款具身智能模型,併發布了業界首個機器人上下文協議RynnRCP,致力於構建可部署、可擴展且具備持續進化能力的具身智能系統。
想選股、想診股?想知持倉機會同風險?關於投資的一切問題,開口問牛牛AI就得啦!
編輯/doris
