建置超高效能和巨量運算的人工智慧資料中心
隨著人工智慧的浪潮推進,企業在建置全新AI資料中心時,最迫切的考量是如何選擇合適的硬體設備。技嘉的合作夥伴(包括 AMD、Intel 和 NVIDIA) 皆憑藉其富有遠見和熱誠的研究人員與工程師團隊打造的先進產品。由於每個團隊各有所長,所推出的新一代GPU各自擁有獨特的技術效能提升優勢,使其成為特定客戶和應用的理想選擇。當然,GPU的選擇受到應用領域(AI訓練或推論)、價格、易取得性、系統生態、擴展性和效能等因素的影響。這些決策過程並不容易,但技嘉仍致力於提供客戶多樣化、高度客制化和成熟專業的產品選擇與諮詢服務,協助企業打造理想的資料中心,迎接越來越龐大的人工智慧應用和機器學習模型的需求。
NVIDIA HGX™ H200/H100 人工智慧超級運算平台
最全面的人工智慧軟體生態
最極速GPU通訊互連技術
領先業界的 AMD Instinct™ MI300X 加速器
最龐大且快速的記憶體傳輸
Intel® Gaudi® 3 加速器
傑出的AI推論表現
為什麼 GIGAPOD 採用機櫃互聯的運算單元部署?
-
產業整合力
透過與 AMD、Intel 和 NVIDIA 等技術領導者的密切合作,確保能迅速達成客戶的要求和時間安排。
-
多樣的產品組合
技嘉擁有豐富多樣的算力產品(GPU 協同運算、獨立運算、儲存和高密度伺服器),可為用戶量身打造,滿足每個客戶的獨特需求。
-
高度擴展性
一個全方位的高效能資料中心必須確保高度靈活性與未來擴展可能,以便新的系統和新的處理器能夠無痛升級。
-
高效能運算
從單一 GPU 伺服器到叢集資料中心,技嘉透過最佳化的散熱設計或導入液體冷卻方案以確保提供頂尖運算力。
-
專業知識與豐富經驗
技嘉已成功部署大型人工智慧資料中心,在客戶需求的時間內提供從諮詢到建置部署的專業服務。
前進超算力人工智慧資料中心的未來
技嘉企業級產品經過嚴格測試,提供相對可靠、實用和輕鬆管理的選擇,包含搭載更多GPU、多種機架規格,以及多元的冷卻散熱方案。身為伺服器領導品牌,我們對於各種IT基礎設施、供應鏈和資料中心的規模都非常熟悉。GIGAPOD 整合式人工智慧解決方案的出現確保了完整的資源整合,協助客戶根據其設施能提供給IT設備的總電量和可用的樓地板面積給予最佳化配置建議。當然,GIGAPOD 提供多種配置方案,從可擴展的零組件到最佳化的散熱設計,從氣冷導入液體冷卻方案,滿足企業各種算力需求。
1 2產品序列 | 支援的GPU型號 | 搭載的GPU伺服器尺寸 | 每櫃GPU伺服器數量 | 機櫃數量 | 單一機櫃總耗電量 | 是否適用散熱門片 (RDHx) |
|
---|---|---|---|---|---|---|---|
1 | NVIDIA HGX™ H100/H200 AMD Instinct™ MI300X |
5U | 4 | 9 x 42U | 50kW | 否 | |
2 | NVIDIA HGX™ H100/H200 AMD Instinct™ MI300X |
5U | 4 | 9 x 48U | 50kW | 是 | |
3 | NVIDIA HGX™ H100/H200 AMD Instinct™ MI300X |
5U | 8 | 5 x 48U | 100kW | 是 | |
4 | NVIDIA HGX™ H200/Blackwell | 8U | 4 | 9 x 42U | 130kW | 否 | |
5 | NVIDIA HGX™ H200/Blackwell | 8U | 4 | 9 x 48U | 130kW | 否 |
產品序列 | 支援的GPU型號 | 搭載的GPU伺服器尺寸 | 每櫃GPU伺服器數量 | 機櫃數量 | 單一機櫃總耗電量 | 是否適用散熱門片 (RDHx) |
|
---|---|---|---|---|---|---|---|
1 | NVIDIA HGX™ H100/H200 AMD Instinct™ MI300X |
5U | 8 | 5 x 48U | 100kW | In-rack | |
2 | NVIDIA HGX™ H100/H200 AMD Instinct™ MI300X |
5U | 8 | 5 x 48U | 100kW | External | |
3 | NVIDIA HGX™ H200/Blackwell | 4U | 8 | 5 x 42U | 130kW | In-rack | |
4 | NVIDIA HGX™ H200/Blackwell | 4U | 8 | 5 x 42U | 130kW | External | |
5 | NVIDIA HGX™ H200/Blackwell | 4U | 8 | 5 x 48U | 130kW | In-rack | |
6 | NVIDIA HGX™ H200/Blackwell | 4U | 8 | 5 x 48U | 130kW | External |
GPU運算叢集的應用領域
-
大型語言運算模型(LLM)
這些擁有數十億參數並需配備充足高頻寬記憶體(HBM)/記憶體的大型語言(LLM)訓練,確實構成了重大的技術挑戰。GPU運算叢集藉由部署單一可擴充且擁有超過20 TB GPU 記憶體,快速分析大規模數據集,進一步提升AI對用戶需求的理解與響應能力,成為用戶在大規模運算上的理想選擇。
-
自然科學及工程模擬
科學研究領域的涵蓋範圍極為廣泛,從物理、化學、地理,至生物科學等多元學科研究。透過GPU加速運算叢集的加持,AI模型借助GPU的高效平行處理能力,有效處理仿真模擬與建模等開創性的科研任務。
-
生成式AI
生成式人工智慧技術、背後AI伺服器龐大的算力,以及 GPU運算叢集間Infiniband 網路的高速資料傳輸,幫助突破既有的工作流程,在我們的日常生活中順利處理大量的人工智慧訓練和工業自動化所需的複雜資料。