亞馬遜云科技(Amazon Web Services,簡稱 AWS)多年來一直致力于自主研發人工智能(AI)訓練芯片,今日正式推出了其最新一代產品 ——Trainium3,其規格令人印象深刻。
在當地時間 12 月 2 日于拉斯維加斯舉行的 AWS re:Invent 2025 年度技術大會上,這家云計算巨頭不僅正式發布了基于其尖端 3 納米制程 Trainium3 芯片打造的 Trainium3 UltraServer 系統,還首次透露了其 AI 訓練產品路線圖上的下一代產品:正在研發中的 Trainium4。據悉,Trainium4 將支持與英偉達(NVIDIA)芯片協同工作。
據 AWS 介紹,這款第三代芯片及其配套系統在 AI 模型訓練和推理性能方面相較第二代產品實現了顯著提升。具體而言,新系統在訓練和高負載推理場景下的速度提升超過 4 倍,內存容量也增至 4 倍。此外,AWS 表示,數千臺 UltraServer 可相互連接,構建出搭載最多 100 萬顆 Trainium3 芯片的超大規模集群,這一規模是上一代系統的 10 倍。每臺 UltraServer 最多可容納 144 顆 Trainium3 芯片。
更值得關注的是,AWS 強調新一代芯片和系統在能效方面較前代提升了 40%。在全球競相建設耗電量高達數吉瓦(gigawatts)的大型數據中心之際,AWS 正致力于打造“更省電”而非“更耗電”的基礎設施。
此舉顯然符合 AWS 自身的商業利益,但秉承亞馬遜一貫的成本意識,該公司同時承諾,這些高效系統也將為使用其 AI 云服務的客戶節省開支。
亞馬遜表示,包括 Anthropic(亞馬遜亦為其投資者)、日本大語言模型公司 Karakuri、SplashMusic 以及 Decart 在內的多家客戶已率先采用第三代 Trainium 芯片及系統,并顯著降低了推理成本。
此外IT之家注意到,AWS 還簡要披露了下一代芯片 Trainium4 的開發進展。該公司承諾,Trainium4 將帶來又一次顯著的性能飛躍,并將支持英偉達的 NVLink Fusion 高速芯片互連技術。這意味著基于 Trainium4 的系統不僅能與英偉達 GPU 協同運行、擴展整體性能,還能繼續利用亞馬遜自研的低成本服務器機架技術。
值得注意的是,英偉達的 CUDA(統一計算設備架構)已成為當前主流 AI 應用事實上的標準平臺。通過支持 NVLink Fusion,Trainium4 有望降低遷移門檻,吸引更多原本為英偉達 GPU 優化的大型 AI 應用轉向亞馬遜云平臺。
目前,亞馬遜尚未公布 Trainium4 的具體發布時間表。若參照以往的產品發布節奏,外界或將在明年(2026 年)的 re:Invent 大會上獲得更多關于 Trainium4 的詳細信息。

