字節跳動旗下「豆包」新模型架構 推理成本最多降83%

字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,該架構在保證模型效果的前提下,推理速度較傳統的MoE(專家混合模型)架構提升2到6倍,推理成本最高可降低83%。
中媒財聯社報導,這項創新成果已被機器學習和AI領域的頂級會議ICLR 2025接收,為解決大模型推理效率和擴展能力問題提供了全新思路。
大模型的推理能力,對應的是端側AI應用/工具的回應能力和速度。隨著模型規模的擴大,推理成本和訪存效率已成為限制大模型規模應用的關鍵瓶頸。
在Transformer架構下,模型的性能與參數數量和計算複雜度呈對數關係。隨著LLM規模不斷增大,推理成本會急劇增加,速度變慢。
為了解決計算問題,先前的研究者提出MoE和PKM(Product Key Memory)方案,但都有各自侷限性。包括MoE架構犧牲了效率、PKM架構犧牲了效果,這些侷限性使得MoE和PKM在推理效率、模型效果和擴展能力等方面的優化空間仍需進一步探索,UltraMem正是為了解決上述缺點。
UltraMem參考了PKM的設計,但針對PKM的缺陷予以補充,優勢主要在於降低推理成本、提升推理速度、保持模型效果。
豆包研究團隊在151M、680M、1.6B三個不同規模的模型上進行了廣泛的實驗。實驗結果顯示,UltraMem在模型效果和推理速度方面均優於MoE和PKM架構,且在680M、1.6B上具有顯著的效果優勢。
報導提到,無論是訓練端還是推理端,當大模型廠商「捲」起成本,代表AI應用將在未來更加高效易用;當推理成本大幅降低,將助推AI技術在更多領域的應用成為可能,尤其是對於資源受限的場景,如邊緣計算和移動設備等,能讓更多企業和開發者有能力使用和部署AI模型。
FB留言