最近有消息傳出,阿里云A100服務器業務暫停出租,這意味著國內英偉達算力將會面臨緊缺的狀況。而據國盛證券發布的一份研報指出,隨著拿卡難度加大,算力運營方開始“搶單”H800服務器,報價沖上了300萬/臺。這兩個消息都暗示著算力租賃行業漲價行情即將到來,AI服務器的搶單現象也愈演愈烈。
AI服務器迎來了一波搶單潮。
“群模混戰”引發AI服務器需求
根據業內人士的觀點,今年對于AI服務器的需求超出了預期,主要原因是各大模型的發展。數據顯示,自從Open AI推出了ChatGPT以來,國內各大廠商紛紛加快步伐,不僅包括百度的文心一言、科大訊飛的星火和華為的盤古等互聯網公司積極開發語言模型,還有各大終端市場也積極接入大模型。正是這場"群模大戰"點燃了AI服務器的需求熱潮。
根據TrendForce的預測,2023年全球AI服務器的出貨量預計將達到118.3萬臺,同比增長38.4%。而到了2025年,這一數字有望攀升至近189.5萬臺,年復合增長率高達41.2%。
就市場格局而言,AI服務器的份額相對集中,浪潮信息占據全球市場份額的20.2%,穩居第一,其他國內頭部廠商包括中科曙光、拓維信息、神州數碼和紫光股份等。
AI服務器核心器件
AI服務器的核心芯片組件主要包括CPU、GPU、NPU、ASIC、FPGA等加速器,以及內存、存儲、網絡等配件。
相對于傳統的中央
處理器(CPU),GPU具有更多的計算核心和更快的內存帶寬,從而大幅提高計算效率和圖形渲染速度。
當前階段,隨著英偉達發布了A100、H100等型號產品,GPU在算力方面的優勢顯著,逐漸從最初的圖形處理轉向計算任務。
GPU由于其具有最強的計算能力同時具備深度學習等能力,故而成為最適合支撐人工智能訓練和學習的硬件,目前已成為服務器中加速芯片的首選。
根據IDC的數據,用于運算和存儲的芯片約占服務器成本結構的70%,其中在機器學習型服務器中,GPU成本占比達到72.8%。
據統計,根據GPU數量的不同,AI服務器進一步分為四路、八路和十六路服務器,搭載8塊GPU的八路AI服務器最常見。
在當前國內二級市場上,主要有寒武紀、海光信息和景嘉微等公司布局GPU芯片。
被動元器件也不得忽視
除了GPU等加速器,AI服務器中的被動元器件如電阻、電容和電感等在整個系統中的作用也不容忽視。這些被動器件具有特性優異的特點,提供更加穩定的電壓和電流,確保AI服務器的正常運行及快速的瞬態響應和較低的紋波。
此外,低損耗的被動器件還可以提高AI服務器的轉換能效,從而提高關鍵的效率,實現節能環保。在AI服務器的可靠性和穩定性方面,電感也扮演著重要的角色,對其提出了更高的需求。
寫在最后:
隨著大模型的持續發展,AI服務器市場將繼續呈現持續的量價齊升趨勢。這一趨勢為服務器產業鏈的各個環節帶來了卡位優勢,包括算力芯片、服務器代工、內存和被動元器件等關鍵領域。這些領域的企業有望迎來全面爆發的機遇。
在算力芯片領域,不斷推出更加高效、強大的GPU和CPU芯片將成為競爭的關鍵點。芯片制造商可以通過持續創新和提升技術水平,滿足對于更高性能和更低功耗的需求。
服務器代工廠商則有機會通過提供高質量、高效率的代工服務來滿足市場需求。同時,他們也可以與芯片制造商建立緊密的合作關系,共同推動AI服務器市場的發展。
另外,內存供應商可以加大研發投入,推出更高容量、更高速度的內存產品,以滿足AI服務器對于存儲需求的增長。
在被動元器件領域,優質的電阻、電容和電感等元器件的供應商可以通過提供穩定性和效能更好的產品,贏得市場競爭優勢。