
2025年3月18日 – GIGABYTEの子会社であり、生成AIサーバーと高度なクーリングテクノロジーで業界をリードするGiga Computingは本日、NVIDIA GTC 2025に参加し、生成AI、メディアアクセラレーション、大規模言語モデル(LLM)向けに優れたGPUベースのソリューションを市場にもたらすことを発表しました。
この目的に向けて、NVIDIA GTC 2025ではGIGABYTEのブース#1409で、NVIDIA HGX™ B300 NVL16システムに空冷と液冷両方のクーリングテクノロジーを提供するラックスケールのターンキーAIソリューション、GIGAPODを展示します。また、ブースでは新たに発表されたNVIDIA GB300 NVL72ラックスケールソリューションに搭載されるコンピュートノードも展示されます。また、モジュール化されたコンピュートアーキテクチャには、新登場のNVIDIA RTX PRO™ 6000 Blackwell Server Editionをサポートする2台のサーバーが用意されています。
完全なAIソリューション – GIGAPOD
ハードウェアとシステム設計における深い専門知識を携えたGiga Computingは、インフラストラクチャハードウェア、プラットフォームソフトウェア、サービスアーキテクチャを組み合わせ、運用効率の向上、管理の合理化、リソース利用の最適化を実現するために設計された強力なソフトウェアスイート、GIGABYTE POD Managerを実行する、GIGABYTE GPUサーバーとNVIDIA GPUベースボードで構成されたスケーラブルなユニットを提供します。GIGAPODのスケーラブルなユニットは、9つの空冷ラック、または5つの液冷ラックのから構成される設計となっています。Giga Computingは、同じ目的のために2つのアプローチを提供し、NVIDIA HGX™ HopperとBlackwell GPUプラットフォームを大規模に使用した1つの強力なGPUクラスターで、AIデータセンターの要求に応えます。
液冷専用と空冷専用からなるソリューション
コンピューティングの要求と、それをサポートするサーバーシャーシは新たな高みへと到達し続けています。空冷ベースのGIGAPOD構成では、NVIDIA HGX™ B300 NVL16を含む、NVIDIA Blackwellアーキテクチャをサポートする8U GIGABYTE G893シリーズサーバーを使用します。データセンター内の設備変更を少なくしたいと考える、既存の空冷システムに慣れたお客様には、ブースで紹介するとおり、単一のラックに最大32個のGPUを搭載できるG893シリーズがその要件に応えます。一方でGIGAPODは、ハイパースケーラーなど、より優れたエネルギー効率を追求するお客様向けに、8個のGPUと2個のCPUすべてにコールドプレートを使用した4U G4L3シリーズサーバーを提供しています。このダイレクトリキッドクーリング(DLC)テクノロジーは、64個のGPUを搭載した最大8台のG4L3サーバーを1つのラックに格納し、より高い計算密度を実現します。
NVIDIA Blackwell Ultraを搭載したHGX B300 NVL16は、最適化されたコンピュートと増加したメモリでAIの新時代を主導し、あらゆるデータセンターでAI推論、エージェント型AI、ビデオ推論アプリケーションに画期的なパフォーマンスをもたらします。
エクサスケールのコンピューティングをシングルラックで – NVIDIA GB300 NVL72
Computex 2024で、Giga Computingは初めてそのNVIDIA GB200 NVL72ソリューションを発表し、そしてNVIDIA GTC 2025では、その後継のNVIDIA GB300 NVL72で開発が続けられています。ブースでは、液冷のGB300コンピュートノードが展示され、液冷技術の可能性を示します。
NVIDIA Blackwell Ultraを搭載したGB300 NVL72は、最適化されたコンピュートと増加したメモリ、高性能なネットワーキングでAIの新時代を主導し、AI推論、エージェント型AI、ビデオ推論アプリケーションに画期的なパフォーマンスをもたらします。
NVIDIA MGX™ サーバーでAIファーストの最適化
NVIDIA MGX規格サーバーのレイアウトと設計について理解を深めるために、GIGABYTEのブースでは、2つの異なるサーバーを展示します。いずれもNVIDIA Grace™ CPU Superchip、NVIDIA BlueField®-3 DPU、NVIDIA ConnectX®-7 NICといった最新のハードウェアをシームレスに統合することで、AIとHPC向けにNVIDIAで最適化されたモジュール化アーキテクチャを採用しています。今回初登場のNVIDIA RTX PRO 6000 Blackwell Server Editionですが、GIGABYTE XL44-SX0は1台のサーバーで最大8基をサポートし、卓越したAIとグラフィック性能を実現します。また、NVIDIA Grace CPU Superchipを使用したGIGABYTE XV23-VC0も、この新しいGPUをサポートしています。どちらのサーバーも、仮想化、クラウドコンピューティング、AI最適化を含む多様なワークロードをサポートします。これは、NVIDIAソフトウェアスタックの最適化を通じて行われます。
NVIDIA RTX PRO™ 6000 Blackwell Server Editionは、AIおよびビジュアルコンピューティングのための強力なデータセンターGPUです。AI、サイエンティフィックコンピューティング、グラフィック、ビデオアプリケーションを含め、要求の厳しいエンタープライズワークロードを加速させます。
:サーバーとソフトウェアスタックを超えたスケーリングで未来のデータセンターを再定義(セッションS74201)
GIGAPODは、コンピューティングリソースのスケーラブルなソリューション、クラスターのカスタマイズされたパフォーマンス、展開の容易さ、検証済みの最適なパフォーマンス、データストレージプラットフォーム、ネットワーキングソリューション、そして大規模なインフラストラクチャと開発・アプリケーションのためのAIワークロードを管理するためのPOD Managerソフトウェアプラットフォームを提供することにより、未来のデータセンターを再定義します。
単なる高性能なハードウェアを超越したものとしてGIGAPODを活用するためには、プラットフォームソフトウェアの統合から、完全な統合プロセスを理解する必要があります。ここで、Eric Ming-Chiang Chen博士が本領を発揮し、GIGABYTE POD Managerが次世代クラスターシステムの大規模な成功をどのように実現するかを説明します。
GIGABYTEのブース#1409では、ラッククスケールデータセンターの詳細と、Giga Computingがどのようにハイパースケーラーのためのサービスプロバイダーへと成長を遂げたのかを知ることができます。
ご質問や詳細情報は、営業担当にお問い合わせください。
{{ item.Title }}
{{ item.Desc }}