我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

張忠謀新書揭密 和黃仁勳披薩晚餐解決40奈米爭議

準備核戰?俄羅斯開始量產可抗核爆的移動式避難所

找台積電代工、叫陣Nvidia 美AI晶片新創Cerebras申請IPO

AI晶片新創公司Cerebras Systems申請首次公開發行股票(IPO)。路透【作者:路透通訊社,日期:2024-10-02,數位典藏序號:20240828000831329】
AI晶片新創公司Cerebras Systems申請首次公開發行股票(IPO)。路透【作者:路透通訊社,日期:2024-10-02,數位典藏序號:20240828000831329】

AI晶片新創公司Cerebras Systems在9月30日申請首次公開發行股票(IPO),計劃以「CBRS」代碼在那斯達克交易所掛牌,讓很想找尋下一家AI領域新星的投資人眼睛為之一亮。多家外媒紛紛在標題中點出,Cerebras是要挑戰AI霸主輝達(Nvidia)。

Cerebras是2016年成立、總部位於加州,目前大約有400名員工。該公司在8月27日發表了目標革新AI推論的解決方案Cerebras Inference,號稱運算速度能比輝達繪圖處理器(GPU)為基礎的系統快20倍。

Cerebras Inference目標為各種AI模型提供優越效能,尤其是用來發展大型語言模型(LLM)。例如,它在Meta的Llama 3.1 8B模型上,每秒可處理1,800個Token(符元,指的是文字處理過程中的最小單位,這也是AI時代最基礎的運算單位);在Llama 3.1 70B模型上,每秒可處理450個Token。

根據Cerebras的說法,這種效能不僅比基於輝達GPU的解決方案快20倍,成本也顯著降低。以價格而言,Cerebras提供這項服務的售價,在Llama 3.1 8B模型上,每處理100萬個Token的費用僅10美分;在Llama 3.1 70B模型上,每處理100萬個Token的費用僅60美分。這代表和當前的GPU產品相比,Cerebras Inference提供的CP值高了100倍。

Cerebras表示,Cerebras Inference的核心是Cerebras CS-3系統,是由領先業界的「第三代晶圓級晶片」(WSE-3)來驅動。WSE-3是靠台積電5奈米製程生產,容納4兆個電晶體於單一晶片,這大幅降低了延遲,並且提高大型AI模型的性能表現。該公司說,這樣的AI處理器,提供的記憶體頻寬比輝達H100高7,000倍。

那麼,Cerebras是否有機會成功挑戰輝達呢?雖然大型公司或許有可能採用Cerebras來節省時間與金錢,但較小的企業可能會維持使用輝達產品,原因是輝達的產品與系統已經成熟。AI News引述Futurum Group分析師尼克森的說法指出:「關鍵問題在,企業是否願意調整他們的工程流程來配合Cerebras的系統?」

根據Cerebras最新提報的財務資料,該公司2024年上半年營收為1.36億美元,是去年同期的860萬美元的逾15倍,淨虧損6,660萬美元,略少於去年同期的淨虧7,780萬美元。

在輝達GPU晶片稱霸AI市場之際,Cerebras的AI推論解決方案提供了引人關注的替代方案。不過,輝達的另一大強項在於AI軟體平台CUDA的深耕與布局,因此,新創公司想在短期內撼動輝達,並非易事。

AI 輝達 晶片

上一則

油商鑽漏洞 影響布蘭特原油聲譽 引發市場供需擔憂

下一則

財經簡訊

延伸閱讀

超人氣

更多 >