DeepSeek開源周 EP通信庫來了 有望再降計算消耗

DeepSeek為了能高效利用GPU進行了諸多創新,DeepSeek在25日也就是「開源周」的第二天開源了DeepEP通信庫。DeepSeek表示,這是第一個用於MoE(專家)模型訓練和推理的開源EP通信庫,有望再度降低計算消耗。
一財網報導,DeepSeek表示,DeepEP的特點是高效、優化的全員溝通;節點內和節點間均支援NVLink和RDMA(遠端直接記憶體存取,一種通信技術);用於訓練和推理預填充的高輸送量內核;用於推理解碼的低延遲內核;原生FP8調度支持;靈活的GPU(圖形處理器)資源控制,實現計算與通信重疊。
EP即expert parallelism(專家並行),是一種在大規模分散式AI模型訓練中使用的技術,能用於提升模型並行處理能力和訓練效率。DeepSeek在代碼託管網站GitHub上解釋,對於延遲敏感的推理解碼任務,DeepEP包含有一組使用純RDMA的低延遲內核,可以用於將延遲最小化,DeepEP還引入一種通信與計算重疊的方法,這種方法可以不占用SM(流處理器)資源。簡而言之,DeepEP也是用於提升GPU利用效率的關鍵技術之一。
性能可比肩OpenAI o1的DeepSeek-R1是基於DeepSeek-V3訓練出來的模型,DeepSeek-V3此前就以不大規模使用最先進的英偉達GPU、低訓練預算著稱。為了在已有的GPU上訓練大模型,DeepSeek進行了諸多創新,以高效利用GPU算力。
線上詢問開源DeepEP通信庫的影響詢問DeepSeek,它的回答是,DeepEP能顯著提升MoE模型的訓練和推理效率,顯著降低計算資源消耗,開源DeepEP有助於降低AI技術的開發成本,且有助於減少重發開發。
DeepSeek此前宣佈,本周會陸續開源五個代碼庫。加上2月24日開源的代碼庫FlashMLA,DeepSeek已開源了2個代碼庫,接下來還有三個代碼庫待開源。DeepSeek此前在公告中表示,DeepSeek是探索AGI(通用人工智慧)的小公司,作為開源社區的一部分,每分享一行代碼,都會成為加速AI行業發展的集體動力。
FB留言