快訊

華盛頓時報:何衛東被查 習清洗解放軍最新受害者

川普汽車關稅發威 道指跌逾150點

字節跳動旗下「豆包」新模型架構 推理成本最多降83%

聽新聞
test
0:00 /0:00
字節跳動字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,推理成本最高可降低83%。(路透)
字節跳動字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,推理成本最高可降低83%。(路透)

字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,該架構在保證模型效果的前提下,推理速度較傳統的MoE(專家混合模型)架構提升2到6倍,推理成本最高可降低83%。

中媒財聯社報導,這項創新成果已被機器學習和AI領域的頂級會議ICLR 2025接收,為解決大模型推理效率和擴展能力問題提供了全新思路。

大模型的推理能力,對應的是端側AI應用/工具的回應能力和速度。隨著模型規模的擴大,推理成本和訪存效率已成為限制大模型規模應用的關鍵瓶頸。

在Transformer架構下,模型的性能與參數數量和計算複雜度呈對數關係。隨著LLM規模不斷增大,推理成本會急劇增加,速度變慢。

為了解決計算問題,先前的研究者提出MoE和PKM(Product Key Memory)方案,但都有各自侷限性。包括MoE架構犧牲了效率、PKM架構犧牲了效果,這些侷限性使得MoE和PKM在推理效率、模型效果和擴展能力等方面的優化空間仍需進一步探索,UltraMem正是為了解決上述缺點。

UltraMem參考了PKM的設計,但針對PKM的缺陷予以補充,優勢主要在於降低推理成本、提升推理速度、保持模型效果。

豆包研究團隊在151M、680M、1.6B三個不同規模的模型上進行了廣泛的實驗。實驗結果顯示,UltraMem在模型效果和推理速度方面均優於MoE和PKM架構,且在680M、1.6B上具有顯著的效果優勢。

報導提到,無論是訓練端還是推理端,當大模型廠商「捲」起成本,代表AI應用將在未來更加高效易用;當推理成本大幅降低,將助推AI技術在更多領域的應用成為可能,尤其是對於資源受限的場景,如邊緣計算和移動設備等,能讓更多企業和開發者有能力使用和部署AI模型。

AI

上一則

馬斯克喊強化投資 但中報復美關稅 特斯拉恐淪籌碼

下一則

海底撈招985/211外送員 網:低學歷當老闆 高學歷當員工

延伸閱讀

超人氣

更多 >

世界新聞網為提供更佳的網站體驗,採cookies分析。如繼續瀏覽本網站即表示您同意我們使用cookies。
更多cookies、隱私權聲明可參考我們的「 隱私權與條款more > Worldjournal.com use cookies to improve your experience on our site. By using this site, you agree to our use of cookies.To find out more, read our update privacy policy.

我知道了