整合式人工智慧資料中心解决方案

AI 伺服器機櫃打造強大 GPU 運算叢集,GIGA POD 將AI超級運算再進化。

建置超高效能和巨量運算的人工智慧資料中心

技嘉為技術領導者提供強大的頂尖加速基礎設施,這個強大的加速運算平台採用集成八個 NVIDIA H100 Tensor 核心 GPU 或 AMD Instinct™ MI300 系列加速卡的AI伺服器。GIGA POD 是一項專業服務,利用極速通訊和相互連接的 NVIDIA® NVLink® 和 AMD Infinity Fabric™ 技術,打造所有機櫃相互連接而形成統一單位的強大GPU運算叢集,實現規模化的平行運算突破AI運算效能。隨著 GIGA POD 的推出,技嘉為傳統資料中心提供了一站式解決方案,企業能夠執行大規模深度學習模型運算,賦能企業轉型為人工智慧資料中心。技嘉憑藉豐富的硬體、專業知識以及與領先GPU夥伴的密切合作,確保人工智慧超級運算叢集的部署順利進行,並縮減了企業轉型的停滯期。
GIGA POD
專業洽詢
環境配置規劃
工程施工
設計到部署
認證與驗收
專為八個GPU超級運算平台量身打造的高效能AI伺服器

隨著人工智慧的浪潮推進,企業在建置全新AI資料中心時,最迫切的考量是如何選擇合適的硬體設備。技嘉的合作夥伴(包括 AMD、Intel 和 NVIDIA) 皆憑藉其富有遠見和熱誠的研究人員與工程師團隊打造的先進產品。由於每個團隊各有所長,所推出的新一代GPU各自擁有獨特的技術效能提升優勢,使其成為特定客戶和應用的理想選擇。當然,GPU的選擇受到應用領域(AI訓練或推論)、價格、易取得性、系統生態、擴展性和效能等因素的影響。這些決策過程並不容易,但技嘉仍致力於提供客戶多樣化、高度客制化和成熟專業的產品選擇與諮詢服務,協助企業打造理想的資料中心,迎接越來越龐大的人工智慧應用和機器學習模型的需求。

NVIDIA HGX H200

NVIDIA HGX™ H200/B100/B200 人工智慧超級運算平台

最全面的人工智慧軟體生態
最極速GPU通訊互連技術

AMD MI300

領先業界的 AMD Instinct™ MI300X 加速器

最龐大且快速的記憶體傳輸

Intel Gaudi

Intel® Gaudi® 加速器

傑出的AI推論表現

為什麼 GIGA POD 採用機櫃互聯的運算單元部署?

  • friendly
    產業整合力

    透過與 AMD、Intel 和 NVIDIA 等技術領導者的密切合作,確保能迅速達成客戶的要求和時間安排。

  • plan_Deployment
    多樣的產品組合

    技嘉擁有豐富多樣的算力產品(GPU 協同運算、獨立運算、儲存和高密度伺服器),可為用戶量身打造,滿足每個客戶的獨特需求。

  • expansion
    高度擴展性

    一個全方位的高效能資料中心必須確保高度靈活性與未來擴展可能,以便新的系統和新的處理器能夠無痛升級。

  • performance
    高效能運算

    從單一 GPU 伺服器到叢集資料中心,技嘉透過最佳化的散熱設計或導入液體冷卻方案以確保提供頂尖運算力。

  • administrator
    專業知識與豐富經驗

    技嘉已成功部署大型人工智慧資料中心,在客戶需求的時間內提供從諮詢到建置部署的專業服務。

前進超算力人工智慧資料中心的未來

全方位的 GIGA POD

技嘉企業級產品經過嚴格測試,提供相對可靠、實用和輕鬆管理的選擇,包含搭載更多GPU、多種機架規格,以及多元的冷卻散熱方案。身為伺服器領導品牌,我們對於各種IT基礎設施、供應鏈和資料中心的規模都非常熟悉。GIGA POD 整合式人工智慧解決方案的出現確保了完整的資源整合,協助客戶根據其設施能提供給IT設備的總電量和可用的樓地板面積給予最佳化配置建議。當然,GIGA POD 提供多種配置方案,從可擴展的零組件到最佳化的散熱設計,從氣冷導入液體冷卻方案,滿足企業各種算力需求。

產品序列 支援的GPU型號 搭載的GPU伺服器尺寸 每櫃GPU伺服器數量 機櫃數量 單一機櫃總耗電量 是否適用散熱門片
(RDHx)
1 SKU1 NVIDIA HGX™ H100/H200/B100
AMD Instinct™ MI300X
5U 4 9 x 42U 50kW
2 SKU2 NVIDIA HGX™ H100/H200/B100
AMD Instinct™ MI300X
5U 4 9 x 48U 50kW
3 SKU3 NVIDIA HGX™ H100/H200/B100
AMD Instinct™ MI300X
5U 8 5 x 48U 100kW
4 SKU10 NVIDIA HGX™ B200 8U 4 9 x 42U 130kW
5 SKU11 NVIDIA HGX™ B200 8U 4 9 x 48U 130kW
產品序列 支援的GPU型號 搭載的GPU伺服器尺寸 每櫃GPU伺服器數量 機櫃數量 單一機櫃總耗電量 是否適用散熱門片
(RDHx)
1 SKU4 NVIDIA HGX™ H100/H200/B100
AMD Instinct™ MI300X
5U 8 5 x 48U 100kW In-rack
2 SKU5 NVIDIA HGX™ H100/H200/B100
AMD Instinct™ MI300X
5U 8 5 x 48U 100kW External
3 SKU6 NVIDIA HGX™ B200/H200 4U 8 5 x 42U 130kW In-rack
4 SKU7 NVIDIA HGX™ B200/H200 4U 8 5 x 42U 130kW External
5 SKU8 NVIDIA HGX™ B200/H200 4U 8 5 x 48U 130kW In-rack
6 SKU9 NVIDIA HGX™ B200/H200 4U 8 5 x 48U 130kW External
GIGA POD - 全新的AI運算叢集解決方案
從單一GPU伺服器運算擴展至八個機櫃,每櫃32個GPU,達到總共256個GPU的運算叢集。以GPU伺服器作為核心,技嘉將GIGA POD穩定的基礎設施規模化,打造出高效能的整合式超算力電腦,進一步成為人工智慧資料中心。

除了GPU伺服器以AI機櫃的組合亮相,GIGA POD 在每八個GPU機櫃組合中配置一個網路交換器機櫃,實現了算力水平的 LEVEL UP 與 SCALE OUT,確保在嚴苛的平行運算環境中,GPU能夠以最高速度進行傳輸,進而擴大產品影響力。技嘉提供全方位的專用硬體、相容性軟體支援以及專業諮詢服務,讓資料中心的部署更加輕鬆無負擔。

技嘉AI伺服器

1 / 8
1 / 4

一條龍服務打造未來的AI資料中心

這個整合性的資料中心生態系統提供了必要的專業知識、資源、創新和互操作性,來構建、部署和維護頂尖的大規模AI資料中心。技嘉持續擴展其在各自領域內的領導合作夥伴,確保資料中心規模的專案在任何階段不會因故停滯。透過已發展和持續加入的合作夥伴生態系統,企業將迅速獲得其投資的成果。