Supermicro, Inc.(納斯達克股票代碼:SMCI)為AI、雲端、儲存和 5G/邊緣領域的全方位 IT 解決方案製造商,推出適用於AI和機器學習(ML)資料存取的完整優化解決方案,涵蓋從資料收集到高性能資料傳輸的各個環節。此全新解決方案能透過將GPU資料傳輸管道完全利用,最大程度縮短AI價值實現時間。在AI訓練方面,該解決方案可收集、轉換大量PB級原始資料,並載入到企業AI工作流程管道。這種多層式Supermicro解決方案通過證實,可在生產製造環境中為人工智慧營運(AIOps)和機器學習營運(MLOps)提供PB規模級資料量。Supermicro的多機櫃級解決方案旨在降低落地風險,讓組織能更快速地訓練模型,並迅速將處理後的資料運用到AI推論。
Supermicro總裁暨執行長梁見後表示:「透過由每機櫃20 PB高效能快閃儲存容量所驅動,並搭載四個專為應用最佳化的NVIDIA HGX H100 8-GPU的氣冷伺服器或搭載八個NVIDIA HGX H100 8-GPU的液冷伺服器,客戶能以機櫃規模加速AI和ML應用運行。此項解決方案能為每個儲存叢集提供270 GB/s的讀取吞吐量和390萬IOPS做為最低部署,並輕鬆擴大至數百PB的規模。藉由使用具有PCIe 5.0與E3.S儲存裝置,以及WEKA Data Platform軟體的最新Supermicro系統,這項通過場域測試的機櫃級解決方案,將可為使用者帶來AI 應用效能的大幅提升。有了此項適用於 AI 訓練的全新儲存解決方案,客戶將能完全發揮我們最先進GPU伺服器機櫃級解決方案的使用潛能,進而降低總擁有成本(TCO)並提高AI效能。」
了解更多關於Supermicro AI儲存解決方案的詳細資訊:https://www.supermicro.com/en/products/storage
為了使GPU有成效地運行,具備低延遲、高頻寬資料處理效能的GPU伺服器必須要能存取用於大規模 AI 訓練運行的未結構化PB量級資料。Supermicro擁有基於Intel和AMD技術的廣泛儲存伺服器產品組合,是AI管道必不可少的要素。這些產品包括Supermicro Petascale All-Flash儲存伺服器,其中每部伺服器擁有983.04* TB的NVMe Gen 5快閃資料容量,可提供高達230 GB/s的讀取頻寬和3,000萬IOPS。本解決方案還包括適用於容量物件層級並具備90個儲存硬碟槽的Supermicro SuperServer儲存伺服器。全球客戶已可取得此經過測試的完善解決方案,並用於ML、GenAI和其他複雜運算的工作負載。
全新儲存解決方案包含:
· All-Flash層級:Supermicro Petascale Storage Servers
· 應用層級:Supermicro 8U GPU伺服器:AS -8125GS-TNHR 和 SYS-821GE-TNHR
· 物件層級:Supermicro 90 drive bay 4U SuperStorage Server,運行Quantum ActiveScale物件儲存
· 軟體:WEKA Data Platform和Quantum ActiveScale物件儲存
· 交換器:Supermicro InfiniBand 和乙太網路交換器
WEKA總裁Jonathan Martin表示:「具高效能和高度快閃資料容量的Supermicro PB級All-Flash儲存伺服器能與WEKA的AI原生資料平台軟體完美互補搭配,並為現今的企業AI客戶提供空前的速度、規模和簡易性。」
Supermicro將在一場網路研討會中介紹其最佳化儲存架構的更多細節。若要參加該場於2024年2月2日舉辦的網路直播研討會,或觀看Supermicro和WEKA的網路研討會重播,請瀏覽:https://www.brighttalk.com/webcast/17278/604378
深入了解全系列Supermicro儲存系統: https://www.supermicro.com/en/products/storage
*原始值是基於30.72 TB的廠商原始基本容量。TB是以10為基礎的十進制。30.72 TB E3.S SSD的取得需視廠商供貨狀態而定。