2023年11月14日 – 高性能伺服器與工作站領導品牌技嘉科技(TWSE:2376)集團旗下子公司技鋼科技,持續開發Arm和x86處理器架構伺服器、擴大高效IT硬體設備的先進冷卻技術,並強力支援AI加速器的多樣化伺服器平台以保持業界領先的地位。在SC23,技嘉(展位#355)將展示多款創新的伺服器,包括支援NVIDIA GH200 Grace Hopper 超級晶片和下一代AMD Instinct™ APU的平台,技嘉著重於運算中心最重要的需求,提供高效能IT硬體設備的絕佳散熱技術,以及支援實時分析和快速實現成效的AI動力產品。
先進冷卻散熱技術
追求更高效能的需求造成了更多熱量的產生,當今許多資料中心需要澈底轉變其散熱基礎設施以跟上時代的步伐。技嘉先進冷卻散熱技術因應而生,讓運算設備得以在維持高效能的情況下更加節能。SC23展位上,技嘉將展出新款的單相浸沒式冷卻槽A1P0-EA0,技嘉在浸沒式冷卻方案具有相當豐富的經驗,整體的解決方案涵蓋浸沒式冷卻伺服器、冷卻槽、冷卻液、相關的維運工具以及遍及全球的服務,能提供客戶一條龍的浸沒冷卻解決方案。今年技嘉還將在展位上展現另一種冷卻技術,適用於NVIDIA Grace CPU 超級晶片、NVIDIA Grace Hopper超級晶片、AMD EPYC™ 9004處理器和第4代Intel® Xeon®處理器的直接液體冷卻解決方案(Direct Liquid Cool, DLC),配備技嘉研發的水冷循環模組,冷卻液分配岐管等冷卻裝置。
模組化的AI與HPC系統
技嘉將在SC23展示一座GIGA POD機櫃級運算產品。技嘉在今年成功的為歐美雲端服務供應商部署其GIGA POD產品,協助這些新興GPU雲端服務供應商規劃其資料中心基礎架構。目前的部屬架構以8個GIGA POD組成一個基礎工作群組,每個群組裝配了32台G593伺服器,總共搭載256個 NVIDIA H100 Tensor Core GPU 來實現1 exaflop(每秒一千億浮點運算)的FP8浮點運算性能;G593-SD0 近期也參與了MLPerf基準測試,並獲得醫療影像辨識與自然語言處理應用的最佳效能表現。同時技嘉還將展示支援NVIDIA Grace CPU超級晶片的H263-V11,以及支援NVIDIA Grace Hopper 超級晶片的H223-V10伺服器,這些基於Arm架構處理器的伺服器不但能支援NVMe硬碟,其配備的 NVIDIA BlueField-3 DPU 將能更快速處理伺服器間的資料傳輸,讓客戶能根據需求進行快速的橫向擴充,以因應市場對生成式AI或大型語言模型的需求。當然還有首次公開亮相的傑出系統,G383-R80,專為新一代AMD Instinct™ APU設計,新一代的AMD Instinct加速器具備突出的規格,能對AI工作負載提供相當大的助力。
可擴展的資料中心基礎設施
包含了獲得NVIDIA認證的 G493-SB0 伺服器,能支援八張PCIe Gen5 GPU,適用於NVIDIA L4 Tensor Core 和 L40 GPU,同時具備能提供NVIDIA BlueField-3 DPU與ConnectX-7網路卡使用的擴充插槽,能支援企業在實境視覺化協作的應用,將成為 NVIDIA OVX 系統的基石。此外,遵循NVIDIA MGX模組化設計的XH23-VG0搭配了NVIDIA Grace Hopper超級晶片,提供額外FHFL的擴充插槽,可用於加速大規模數學運算,是AI和HPC應用的絕佳選擇。
企業級運算
除了上述火熱的生成式AI及HPC產品以外,技嘉也對企業客戶提出各有特色的產品來滿足市場需求。例如S183-SH0適用於全快閃儲存陣列部屬,輕薄的1U外形搭載了兩顆Intel Xeon可擴充處理器,支援高達32個E1.S規格的全快閃硬碟,能實現快速、高密度的儲存配置;另一款支援E1.S的H253-Z10 2U伺服器,將I/O配置設計在機箱前緣,讓管理者能方便的從前端進行網路維護,2U4節點的運算節點支援採用3D V-cache技術的AMD EPYC 9004處理器,能完成邊緣的AI加速運算,提供即時的人工智慧反饋。同時還有兩款G293 GPU伺服器,專為AI訓練或AI推論工作進行最佳化設計。G293-Z43專攻AI推論領域,2U伺服器機箱內有四組可插拔的GPU 擴充槽,可支援16張Alveo™ V70加速器安裝,而性價比合宜的G293-Z23伺服器能支援高工耗(TDP)的處理器和PCIe Gen4和Gen5 GPU,如 NVIDIA L40S GPU,能兼顧關鍵型生產力工作或企業內AI演算運用的任務。
NVIDIA H200 Tensor Core GPU
NVIDIA同時在SC23展會上宣告了下一代的NVIDIA H200 Tensor Core GPU規劃,相較現行的GPU提供更好的記憶體效能,做為NVIDIA的技術合作夥伴,技嘉也將在H200 Tensor Core GPU上市同時推出一系列的伺服器來支持該GPU。
NVIDIA H200 GPU突破性的效能和記憶體容量能加速生成式AI和HPC應用。作為第一個擁有HBM3e的GPU,NVIDIA HGX H200 是領先全球的AI運算平台,一組HGX-H200 8-GPU提供超過32 petaflops的FP8深度學習運算和1.1TB的高頻寬記憶體,將實現更快的生成式AI和HPC應用成果,推動人類社會朝向數位化生活邁進。
歡迎透過連結以便更完整了解技嘉直接液體冷卻伺服器、單相浸沒式液冷伺服器,以及浸沒式冷卻槽。
在LinkedIn上追蹤我們:https://linkedin.com/company/giga-computing
在Twitter上追蹤我們:https://twitter.com/GIGABYTEServer
在Facebook上追蹤我們:https://facebook.com/gigabyteserver
媒體聯繫:ann.lin@gigacomputing.com
關於技鋼科技
技鋼科技是客戶邁向數位世代的基礎架構合作夥伴與創新先驅。2023年由技嘉科技分拆獨立,我們保留了產品開發與製造的專業知識,透過專職的服務,我們追求核心競爭力的提升來供應客戶數位轉型所需的底層架構產品,涵蓋了從資料中心到邊緣的運算設備,包含支援HPC和AI等新興工作負載產品等。透過與技術領導品牌的深度合作,我們用模組化的產品設計思維來推動運算設備的上市即時性與多樣化;並以高性能、資料安全、彈性擴充和永續經營作為核心精神實現在所有推出的產品上。想了解更多關於技鋼的產品訊息,請參訪 https://www.gigacomputing.com/ 或訂閱我們的電子報,來獲取更多更即時的一手資訊。
{{ item.Title }}
{{ item.Desc }}