2025-11-21 17:57:05
11月21日下午,華為在上海舉辦論壇,正式開源創新AI容器技術Flex:ai。該技術通過算力切分,將單張GPU/NPU算力卡切分為多份虛擬單元,提升算力利用率30%,且可統一管理多品牌算力資源。華為認為容器技術與AI是天然搭檔,Flex:ai通過精細化管理與智能調度,實現AI工作負載與算力資源的“精準匹配”,關鍵能力包括切分、調度和聚合。
每經編輯|張錦河
11月21日下午,華為在上海舉辦“2025 AI容器應用落地與發展論壇”,會上正式發布并開源了創新AI容器技術Flex:ai。
據媒體報道,目前,行業內算力資源的平均利用率僅為30%至40%,據華為介紹,Flex:ai通過算力切分技術,將單張GPU(圖形處理器)/NPU(神經網絡處理器)算力卡切分為多份虛擬算力單元,切分粒度精準至10%。此技術實現了單卡同時承載多個AI工作負載,在無法充分利用整卡算力的AI工作負載場景下,算力資源平均利用率可提升30%。
與英偉達旗下Run:ai只能綁定英偉達算力卡不同,華為AI容器技術Flex:ai通過軟件創新,可實現對英偉達、昇騰及其他第三方算力資源的統一管理和高效利用,有效屏蔽不同算力硬件之間的差異,為AI訓練推理提供更高效的資源支持。
圖片來源:視覺中國-VCG211478193393
為什么推出Flex:ai?華為方面認為,在大模型時代,容器技術與AI是天然搭檔。
容器技術作為一種輕量級虛擬化技術,可以將模型代碼、運行環境等打包成一個獨立且輕量級的鏡像,實現跨平臺無縫遷移,解決模型部署存在環境配置不一致的痛點。
同時,容器技術可以按需掛載GPU(圖形處理器)、NPU(神經網絡處理器)的算力資源,并且按需分配和回收資源,提升集群整體的資源利用率。
第三方機構數據顯示,目前AI負載大多已容器化部署和運行,預計到2027年,75%以上的AI工作負載將采用容器技術進行部署和運行。
此外,傳統容器技術已經無法完全滿足AI工作的負載需求,AI時代需要AI容器技術。
Flex:ai可以大幅提升算力資源的利用率,主要是通過對GPU、NPU等智能算力資源的精細化管理與智能調度,實現對AI工作負載與算力資源的“精準匹配”。
具體來看,Flex:ai的關鍵能力分別是算力資源切分、多級智能調度、跨節點算力資源聚合。
以算力資源切分為例,Flex:ai可以將單張GPU/NPU算力卡,切分為多份虛擬算力單元,切分粒度精準至10%,實現單卡同時承載多個AI工作負載的效果。
每日經濟新聞綜合上海證券報、公開信息
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP