在6月20日舉行的華為開發者大會2025(HDC 2025)上,華為常務董事、華為云計算 CEO張平安宣布基于CloudMatrix384超節點的新一代昇騰AI云服務全面上線,為大模型應用提供澎湃算力。

隨著大模型訓練和推理對算力需求的爆炸式增長,傳統計算架構已難以支撐AI技術的代際躍遷。華為云新一代昇騰AI云服務基于CloudMatrix384超節點,首創將384顆昇騰NPU和192顆鯤鵬CPU通過全新高速網絡MatrixLink全對等互聯,形成一臺超級“AI服務器”,單卡推理吞吐量躍升到2300 Tokens/s。超節點架構能更好地支持混合專家MoE大模型的推理,可以實現“一卡一專家”,一個超節點可以支持384個專家并行推理,極大提升效率。同時,超節點還可以支持“一卡一算力任務”,靈活分配資源,提升任務并行處理,減少等待,將算力有效使用率(MFU)提升50%以上。
對于萬億、十萬億參數的大模型訓練任務,在云數據中心,還能將432個超節點級聯成最高16萬卡的超大集群;同時,超節點還可以支持訓推算力一體部署,如“日推夜訓”,訓推算力可靈活分配,幫助客戶資源使用最優。
張平安表示,昇騰AI云服務得到了全球客戶、伙伴和開發者的支持。正是因為他們對華為的堅定信任,才有機會讓昇騰構筑起一個比肩巔峰,開創未來的AI算力底座!
新浪與華為云深度合作,基于CloudMatrix384昇騰AI云服務,為“智慧小浪”智能服務體系構建了統一的推理平臺,底層由昇騰AI算力提供支持。推理的交付效率提升了超過 50%,模型上線速度成倍加快;通過軟硬協同調優,NPU利用率提升超過40%,每一份資源都得到更高效的使用。
硅基流動正在使用CloudMatrix384超節點,為數百萬用戶高效提供DeepSeek V3、R1的推理服務。面壁智能使用CloudMatrix384超節點,讓他們的小鋼炮模型的推理業務性能得到了2.7倍提升。
在科研領域,中科院基于CloudMatrix384超節點打造了自己的模型訓練框架,快速構建了中科院AI for Science科研大模型,擺脫了對國外高性能AI算力平臺的依賴。
在互聯網領域,360打造的納米AI搜索,為用戶提供超級AI搜索服務,對AI算力有極大需求,也已開啟了CloudMatrix384超節點的測試。
當前,昇騰AI云服務已經成為AI基礎設施的最優選擇,為超過1300家客戶提供澎湃的AI算力,加速千行萬業智能化升級。