回到頂端
|||
熱門: 黃子佼 徐巧芯 地震

Supermicro推出三款基於NVIDIA技術的全堆疊結構、可立即部署型生成式AI SuperCluster,從企業規模擴大至LLM硬體基礎架構

台灣產經新聞網/香港商霍夫曼公關顧問股份有限公司 2024.03.22 00:00
新聞圖片

Supermicro, Inc.(納斯達克股票代碼:SMCIAI、雲端、儲存和 5G/邊緣領域的全方位 IT 解決方案製造商,宣布推出其最新產品組合,加速生成式AI部署。Supermicro SuperCluster解決方案能為現今及未來大型語言模型(Large Language ModelLLM)硬體基礎設施提供核心建構組件。

 

Supermicro三款強大的SuperCluster解決方案現已上市並可被用於生成式AI工作運行。這些解決方案內的4U液冷系統或8U氣冷系統是專為強大LLM訓練性能以及高度批次大小且大量的LLM推論所設計。配備了1U氣冷Supermicro NVIDIA MGXTM系統的第三款SuperCluster超級叢集則針對雲端級推論進行了最佳化。

 

Supermicro總裁暨執行長梁見後表示:「在AI時代,運算力單位是以叢集來衡量,不再只用伺服器數量作為依據。我們的全球製造產能已擴大到每月5,000台機櫃,能比以往更快地為客戶提供完整生成式AI運算叢集。只需透過我們採用400Gb/s NVIDIA Quantum-2 InfiniBandSpectrum-X Ethernet網路技術的數個可擴充型叢集建構組件,一個64節點的運算叢集能支援具有72TB HBM3e512NVIDIA HGX H200 GPU。結合了NVIDIA AI Enterprise軟體的Supermicro SuperCluster解決方案非常適合用於針對現今企業與雲端基礎架構的LLM訓練,且最高可達兆級參數。互連的GPUCPU、記憶體、儲存、以及網路硬體在被部署至機櫃內的多個節點後形成現今AI技術的基礎。SupermicroSuperCluster解決方案為快速發展的生成式AILLM提供了核心建構組件。」

 

如需Supermicro AI SuperCluster的詳細資訊,請造訪:www.supermicro.com/ai-supercluster

 

NVIDIA GPU產品部門副總裁Kaustubh Sanghani則表示:「NVIDIA最新型GPUCPU、網路與軟體技術助力能讓系統製造者為全球市場內不同類型的下一代AI工作運行實現加速。透過結合基於Blackwell架構產品的NVIDIA加速運算平台,Supermicro能提供客戶所需要的前沿伺服器系統,且這些系統可容易地被部署至資料中心。」

 

Supermicro 4U NVIDIA HGX H100/H200 8-GPU系統透過液冷技術使8U氣冷系統運算密度加倍,同時降低能耗量與總體擁有成本(TCO)。這些系統旨在為了支援下一代NVIDIABlackwell架構GPUSupermicro冷卻分配單元(Cooling Distribution UnitCDU)與冷卻分配分流管(Cooling Distribution ManifoldCDM)是主要冷卻液流動脈絡,可將冷卻液輸送至Supermicro定製的直達晶片(Direct-to-ChipD2C)冷板,使GPUCPU處於最佳運行溫度,進而實現效能最大化。此散熱技術可使一整座資料中心電力成本降低最多40%,同時節省資料中心占地空間。深入了解Supermicro液冷技術:https://www.supermicro.com/zh-tw/solutions/liquid-cooling

 

搭載NVIDIA HGX H100/H200 8-GPU的系統非常適合用於訓練生成式Al。透過NVIDIA® NVLink®技術高速互連的GPU,以及高GPU記憶體頻寬與容量,將成為符合成本效益地運行LLM的核心關鍵。SupermicroSuperCluster具備龐大GPU共用資源,能作為一個AI超級電腦進行運算作業。

 

無論是導入一個最初就以數兆級詞元(token)資料集進行完整訓練的大型基礎模型,或開發一個雲端級LLM推論基礎架構,具有無阻式400Gb/s網路結構的主幹枝葉式架構(Spine and Leaf Network Topology)都能從32個運算節點順暢地擴展至數千個節點。針對完全整合的液冷系統,Supermicro在產品出廠前會藉由經認證的測試流程徹底驗證與確保系統運行成效與效率。

 

採用了NVIDIA GH200 Grace Hopper SuperchipSupermicro NVIDIA MGX™系統設計將能打造出未來AI運算叢集的架構樣式以解決生成式AI的關鍵瓶頸:運行高推論批次大小的LLM所需的GPU記憶體頻寬及容量,進而降低營運成本。具256節點的運算叢集能實現雲端級大量推論算力引擎,並易於部署與擴充。

 

 

配置4U液冷系統的5組機櫃或8U氣冷系統的9組機櫃型SuperCluster

 

·          單一可擴充單元含256NVIDIA H100/H200 Tensor Core GPU

·          液冷技術能支援512GPU64個節點,而其體積空間等同於搭載256 GPU的氣冷式32節點解決方案

·          單一可擴充單元含具有20TB HBM3NVIDIA H100或具有36TB HBM3eNVIDIA H200

·          一對一網路傳輸結構可為每個GPU提供最高400 Gbps頻寬,並支援 GPUDirect RDMAGPUDirect Storage技術,實現最高兆級參數的LLM訓練

·          400G InfiniBand400GbE Ethernet網路交換器結構採用高度可擴充型主幹枝葉式網路架構技術,包括NVIDIA Quantum-2 InfiniBandNVIDIA Spectrum-X Ethernet網路平台

·          可客製化AI資料管道儲存結構具有領先業界的平行檔案系統選項技術

·          搭載NVIDIA AI Enterprise 5.0軟體,能支援可加速大規模AI 模型部署的新型NVIDIA NIM推論微服務

 

配置1U氣冷NVIDIA MGX系統的9組機櫃型SuperCluster

·          單一可擴充單元含256GH200 Grace Hopper Superchips

·          最高可達144GB HBM3e480GB LPDDR5X的統一記憶體,適用於雲端級、大量、低延遲和高批次推論,並能在單一運算節點中容納超過700億個參數規模的模型

·          400G InfiniBand400GbE Ethernet網路交換器結構採用了高度可擴充型主幹枝葉式網路架構技術

·          每節點最多含8個內建E1.S NVMe儲存裝置

·          可客製化AI資料管道儲存結構搭配NVIDIA BlueField®-3 DPU與領先業界的平行檔案系統選項,能為每個GPU提供高傳輸量、低延遲的儲存裝置存取

·          NVIDIA AI Enterprise 5.0軟體

 

透過GPU間可實現的頂級互連效能,SupermicroSuperCluster解決方案針對LLM訓練、深度學習,以及大量且高批次推論進行了最佳化。SupermicroL11L12驗證測試結合了現場部署服務,可為客戶提供更順暢體驗。客戶收到隨插即用的可擴充單元後能實現資料中心內的輕鬆部署,並可更快獲取成果。

社群留言

台北旅遊新聞

台北旅遊新聞