輝達的AI晶片少不了與它合作 這公司今年來已大漲近60%
輝達(Nvidia)的H100晶片是當前AI狂潮的核心,但這款處理器少不了搭配使用特殊記憶體晶片來推動秒速的計算,而南韓記憶體晶片大廠SK海力士正是輝達頂級AI處理器晶片最新高頻寬記憶體(HBM)的主要供應商,該公司今年來股價已大漲近60%,漲幅是同業三星電子的近三倍,也遠高於美光的約30%漲幅。
華爾街日報報導,十年前,SK海力士比同業更積極押注HBM,在其中,動態隨機存取記憶體(DRAM)採用如摩天大廈樓層般的垂直方式堆疊。SKh海力士負責先進記憶體產品設計的主管朴明在(Park Myeong-jae,音譯)表示,這塊領域當時被認為是未知領域。現在,隨著仰賴HBM的AI應用崛起,SK海力士已成為早期硬體贏家之一。
SK海力士說,新一代的HBM晶片每秒可處理相當約230部Full HD高畫質電影。
ChatGPT等生成式AI工具會消化大量數據,這些數據必須從記憶體晶片中提取出來並送往處理器進行運算。HBM靠著垂直堆疊式設計,能夠密切與輝達、超微(AMD)與英特爾等公司設計的處理器合作,提升性能。
SK海力士與AMD合作,在2013年率先向市場推出HBM,其最新的第四代版本堆疊了12顆傳統的DRAM晶片,比先前的8顆更多,並且提供業界最高水準的資料傳輸效率與散熱。
這樣的成技術需要發明將晶片堆疊和融合在一起的新方法。為了12層的版本,SK海力士使用液體材料來填充每層之間的空間,取代傳統採用薄膜的方式。
在SK海力士最新的堆疊製程中,該公司利用高溫來確保每個晶片層均勻貼合,並且用701噸的壓力來補滿間隙。
自2010年來即和SK海力士合作HBM的大學研究人員金正浩(音譯)表示,大約在十年前,輝達和AMD便尋求合作夥伴,打造一種能以高速將更大量數據一次傳往他們的繪圖處理器(CPU)的新型記憶體晶片。SK海力士以更集中的投資來回應這些請求。
SK海力士的朴明在表示,該公司的HBM工作團隊起初並不是把AI視為這種新型記憶體晶片的優先應用領域,而是用來克服「記憶牆」,即產業認為運算表現受記憶體晶片速度限制的難題。他說:「我們當時看好用於高性能運算的HBM最終會促成相關應用。HBM確實為加密貨幣與稍後的AI發展奠基。」
SK海力士4月表示,預期2023年HBM營收將成長逾50%。花旗分析師表示,在全球DRAM營收中,來自AI需求的占比到2025年將提升至41%,高於今年的16%。
但SK海力士也無法確保維持早期的優先地位,因為三星正準備積極投資,在2024年前將把HBM產量提升一倍。
根據集邦科技的資料, 在這塊市場中,三星今年預料將追上SK海力士的市占,兩者分別占46%至49%,美光預料拿下約5%的市占。
留言