黃仁勳在Nvidia財報會議強調5件事 他說了些什麼?
輝達(Nvidia)28日公布財報,執行長黃仁勳在與分析師進行的財報會議結束前,強調了公司最重要的五件事情。他指出,加速運算已經達到臨界點,中央處理器(CPU)的擴展速度變慢。開發人員必須盡一切可能加快速度。
黃仁勳說,第一點,「我們正處於將價值1兆美元的資料中心現代化,從通用運算升級為加速運算的路途中」。
他表示,加速運算始於CUDA-X函式庫。新的資料庫為輝達展開新市場,而輝達已推出許多新的資料庫,包括CUDA-X Accelerated Polars、Pandas和領先的資料科學與資料處理庫Spark,以及用於向量資料庫的CUVI-S。
第二,相較於Hopper處理器,Blackwall是階躍函數式的大躍進。 Blackwell是AI基礎設施平台,而不僅僅只是繪圖處理器(GPU)。
黃仁勳說,隨著輝達向合作夥伴和客戶展示更多Blackwell和範例系統,Blackwell的領先程度會變得清晰。
他指出, Blackwell的願景花了近五年的時間和七種獨特的晶片來實現,包括Gray CPU、Blackwell雙GPU和 colos軟體包、用於東西向流量的ConnectX DPU、用於南北向和儲存流量的BlueField DPU、用於所有GPU 通訊的NVLink交換器以及Quantum和Spectrum-X,後兩者用於InfiniBand和能夠支援AI大量流量的乙太網路。
Blackwell AI工廠是大如建築的電腦。輝達設計並優化Blackwell平台,從晶片、系統、網絡,甚至結構化電纜、電源和冷卻,以及大量軟體,實現端到端的堆疊,讓客戶能夠快速建造AI工廠。這些都是非常資本密集的基礎建設。
黃仁勳說。客戶希望在設備一到手後就立即部署,並傳達出最佳表現。Blackwell在電力有限資料中心提供的AI處理量是Hopper的三倍到五倍。
第三點則是NVLink很重要,因為所有GPU的切換將改變全局。
黃仁勳Blackwell系統能夠將72 GB200中的144組GPU連接到一個NVLink網域中,一個機架中總計的NVLink頻寬為每秒259 TB。從長遠來看,這比 Hopper高出約10倍。
黃仁勳說,對推理而言,NVLink對於低延遲、高吞吐大型語言模型代幣生成是很重要的。輝達現在擁有三個網路平台:用於GPU擴充的NVLink、用於超級運算和專用AI工廠的Quantum InfiniBand,以及用於乙太網絡上AI的Spectrum-X。
第四,生成式AI動能正在加速。生成式AI前端模型業者正加速擴大到下個AI平台,以提高模型的安全性和智商。
黃仁勳說,輝達也正在擴大理解從文字、圖像和影片到3D物理、化學和生物學的更多模型。聊天機器人、程式編寫AI和圖像生成器正在快速成長,但這只是冰山一角。網路服務正在為大規模推薦、投放廣告和搜尋系統部署生成式AI。
第五,輝達AI Enterprise平台可協助企業客製化AI模型,並且建立客製化的AI應用程式。
黃仁勳指出,企業可以在NVIDIA AI Enterprise運作時進行部署,每GPU每年4,500美元。輝達的軟體以當前銷售速度而言,今年營收將達20億美元。
FB留言