快訊

衛生部計畫裁員1萬人 部門數量可能減半 年省18億?

退休後找份兼職工作 這7種不需要太多經驗

DeepSeek開源周 EP通信庫來了 有望再降計算消耗

聽新聞
test
0:00 /0:00
DeepSeek陸續開源五個代碼庫。(路透)
DeepSeek陸續開源五個代碼庫。(路透)

DeepSeek為了能高效利用GPU進行了諸多創新,DeepSeek在25日也就是「開源周」的第二天開源了DeepEP通信庫。DeepSeek表示,這是第一個用於MoE(專家)模型訓練和推理的開源EP通信庫,有望再度降低計算消耗。

一財網報導,DeepSeek表示,DeepEP的特點是高效、優化的全員溝通;節點內和節點間均支援NVLink和RDMA(遠端直接記憶體存取,一種通信技術);用於訓練和推理預填充的高輸送量內核;用於推理解碼的低延遲內核;原生FP8調度支持;靈活的GPU(圖形處理器)資源控制,實現計算與通信重疊。

EP即expert parallelism(專家並行),是一種在大規模分散式AI模型訓練中使用的技術,能用於提升模型並行處理能力和訓練效率。DeepSeek在代碼託管網站GitHub上解釋,對於延遲敏感的推理解碼任務,DeepEP包含有一組使用純RDMA的低延遲內核,可以用於將延遲最小化,DeepEP還引入一種通信與計算重疊的方法,這種方法可以不占用SM(流處理器)資源。簡而言之,DeepEP也是用於提升GPU利用效率的關鍵技術之一。

性能可比肩OpenAI o1的DeepSeek-R1是基於DeepSeek-V3訓練出來的模型,DeepSeek-V3此前就以不大規模使用最先進的英偉達GPU、低訓練預算著稱。為了在已有的GPU上訓練大模型,DeepSeek進行了諸多創新,以高效利用GPU算力。

線上詢問開源DeepEP通信庫的影響詢問DeepSeek,它的回答是,DeepEP能顯著提升MoE模型的訓練和推理效率,顯著降低計算資源消耗,開源DeepEP有助於降低AI技術的開發成本,且有助於減少重發開發。

DeepSeek此前宣佈,本周會陸續開源五個代碼庫。加上2月24日開源的代碼庫FlashMLA,DeepSeek已開源了2個代碼庫,接下來還有三個代碼庫待開源。DeepSeek此前在公告中表示,DeepSeek是探索AGI(通用人工智慧)的小公司,作為開源社區的一部分,每分享一行代碼,都會成為加速AI行業發展的集體動力。

DeepSeek AI 預算

上一則

四川綿茂公路「禁餵令」 攔不住打卡的遊客與討食猴群

下一則

「一字不漏」 復旦大學研究員抄台碩士論文 遭退站懲處

延伸閱讀

超人氣

更多 >

世界新聞網為提供更佳的網站體驗,採cookies分析。如繼續瀏覽本網站即表示您同意我們使用cookies。
更多cookies、隱私權聲明可參考我們的「 隱私權與條款more > Worldjournal.com use cookies to improve your experience on our site. By using this site, you agree to our use of cookies.To find out more, read our update privacy policy.

我知道了