英特爾表示,數據中心芯片庫存消化時間遠比PC更長,整個數據中心業務將延宕復蘇。日前,更傳出英特爾一批數據中心服務器CPU以40~50%折扣出售,最后由騰訊、阿里等大客戶出手“救援”。
同樣身處數據中心巨頭的英特爾與英偉達,對于服務器的需求感受是冰火二重天,反映出傳統的通用服務器需求持續低迷,對比需求熱絡的AI服務器宛若兩個世界。
當AI教主黃仁勛布道:你買越多,你節省越多(The more you buy, the more you save.)但也意味著當你買越多的AI服務器芯片,需要的通用服務器芯片就會越少。
在數據中心領域,英偉達GPU生意越好,英特爾、AMD的CPU生意就會越暗淡,因此英特爾再度示警數據中心芯片庫存嚴重,知名分析師陸行之一語道破:英特爾在數據中心領域早已不再有話語權,因為預算排擠效應,每賣一臺AI服務器,就會少賣好幾臺通用服務器。
為什么在AI數據中心里,使用GPU會勝過使用CPU?
如果只是單看采用GPU的AI服務器,會覺得該系統單價非常昂貴,買越多真的能省越多嗎? 其實仔細計算,舉例由960個CPU處理器組成的AI服務器價格1,000萬美元,電力消耗為11GWh,可提供1倍的大型語言模型LLM處理性能,然而由172組GPU組成的AI服務器的價格雖然高達3400萬美元,但是它能在同樣消耗11GWh電力的前提下,提供150倍效能,算下來只需要幾百臺NVIDIA DGX系統,就可以取代采用CPU的上萬臺服務器。這不就應驗了黃仁勛說的“買越多,省越多”。
黃仁勛在今年2023 COMPUTEX演講中即提到,PC產業正同時經歷“加速運算”和“生成式AI”兩大轉變,CPU時代已經結束,產業需要一個更快的計算模式,即是GPU。以往PC、服務器中最重要的零組件為CPU,但隨著需要大量計算能力的AI應用出現后,GPU將成為主角,CPU淪為配角。目前最先進的系統是采用8個GPU配1個CPU的配置,以發揮最高的計算能力。
另一個數據中心CPU和GPU感受兩極化的原因:GPU產能因為CoWoS封裝產能不足而受限,大家買不到足夠GPU后來變成重復下單。
某客戶本來只需要50顆GPU,因為買不到足夠數量只好到處下訂,最后延伸出200顆GPU的需求量,即使最后訂單砍單一半,供需還是有缺口。這也是為什么黃仁勛一直說GPU需求真的很強很強,因為客戶都怕缺貨,實際下單的數量都早已超過實際需求不知道幾倍。
反觀通用服務器,因為全球經濟景氣不佳,消費力轉趨保守,服務器客戶對于新建的資本支紛紛縮手,轉而傾向優化現有設備,或是用軟件更新等各種方式來延長使用壽命和資源重新分配,釋放更大性能,因此通用服務器芯片供應商當然會感受到無盡寒意。
不過,AI服務器和通用服務器的兩極化現象也不會無止境的擴大下去,因為AI服務器還是要建立在既有的基礎架構和終端設備之上,GPU侵蝕很大部分的CPU使用量,但不能全然取代CPU。
短期內,生成式AI帶來很多新應用和海量信息需求,大家趕著布建AI服務器,因此瘋狂下單GPU,等到AI服務器的需求布建到一定程度,最后還是會回過頭來布建通用服務器。長期來看,AI服務器的氣勢如虹,終究會帶動通用服務器需求脫離谷底才對。
近期,傳出ChatGPT有退潮跡象,微軟砍單Nvidia H100芯片的消息。加上英偉達股價自高點跌落,華爾街在英偉達股價上的多、空兩派將交戰太過激烈,繪聲繪影指出英偉達塞貨給另一家AI新創公司Coreweave虛灌營收的夸張不實傳言,多多少少顯示AI過熱下的發展在資本市場上開始有扭曲的跡象。
回頭來看英特爾的數據中心業務,除了服務器CPU,英特爾也是有布局AI領域,2019年并購以色列AI新創公司Habana Labs,推出AI加速器芯片Gaudi 2,采用7nm制程技術,試圖挑戰Nvidia H100,更推進新一代的Gaudi 3產品線問世,采用5nm制程。
根據市調機構統計,目前在AI服務器領域,英偉達市占率有60~70%,其次是云端業者自行開發的ASIC芯片。一般而言,大型的云服務提供商CSP除了采購英偉達的GPU,像是Google、AWS也都有自己開ASIC的解決方案。同時也可觀察到,英偉達在AI服務器高達70%的市占率,難怪英特爾、AMD等處理器大廠都加速推出相關AI產品來分一杯羹的急迫心態。
更多精彩內容歡迎點擊==>>電子技術應用-AET<<