GMO GPUクラウドがNVIDIA B300 GPUの性能を検証
GMOインターネット株式会社は、同社が提供する「GMO GPUクラウド」において、「NVIDIA H200 Tensor コアGPU(以下、H200 GPU)」および「NVIDIA HGX B300 AI インフラストラクチャ(以下、B300 GPU)」を導入したGPUクラウドサービスの性能検証結果を公開しました。
この検証は、生成AIの開発から運用までの実用性と演算性能を評価するため、以下の3つのベンチマーク(性能検証)を実施して行われました。
- 大規模言語モデル(LLM)の学習ベンチマーク:LLMの学習効率と演算速度を評価
- vLLM bench throughputによる推論ベンチマーク:単位時間あたりに生成可能なトークン量(処理スループット)を評価
- HPL Benchmarkによるベンチマーク:高精度な数値計算の処理能力を評価
これらのベンチマークにより、生成AIの開発から運用までの実用性能と演算性能の両面から、B300 GPUとH200 GPUの特性が検証され、ワークロードに応じた最適なGPUを選択するための参考情報が提供されます。
生成AIワークロードでB300 GPUがH200 GPUを上回る性能
今回の検証では、生成AIワークロードにおいて、B300 GPUがH200 GPUと比較して、大規模言語モデルの学習で約2倍、推論で約2.5倍の処理性能を発揮することが確認されました。
一方で、スーパーコンピュータの性能評価に用いられるHPL Benchmarkでは、B300 GPUの性能はH200 GPUの約2.1%(約47分の1)に留まりました。この結果は、B300 GPUが生成AIワークロードに特化した高い性能を持つ一方で、科学技術計算など計算結果の正確性を求める用途には、H200 GPUが適している可能性を示しています。
1. 大規模言語モデル(LLM)の学習ベンチマーク
Llama2 70Bモデルを用いたファインチューニングにかかる学習時間を測定した結果、H200 GPU搭載機材では20.80分かかっていた学習時間が、B300 GPU搭載機材では10.31分で完了し、約2倍の速度で処理が進みました。
さらに、NVIDIA Blackwellアーキテクチャから新たに対応したFP4(4ビット浮動小数点演算)を用いた測定では、FP8 hybridよりも短い時間で処理が完了しており、FP4が高い演算性能を発揮することで、学習においてもその恩恵を受けられる可能性が示されました。

2. vLLM bench throughputによる推論ベンチマーク
Llama-3.1-405B-Instructモデルの推論スループットを測定した結果、H200 GPU(FP8)構成では798 output tokens/sであったスループットが、B300 GPU(FP8)構成では約170%(約1.7倍)の1330 output tokens/sまで向上しました。
さらに、FP4(NVFP4)を適用した構成では1938 output tokens/sを達成し、H200 GPU構成に対し約250%(約2.5倍)の性能向上が確認されました。この結果から、FP4の活用が大規模モデルの推論パフォーマンスを向上させる有力な手段の一つであると考えられます。

3. HPL Benchmarkによるベンチマーク
HPL Benchmarkを用いてB300 GPU搭載機材およびH200 GPU搭載機材のLINPACK性能を比較した結果、B300 GPU搭載機材の性能はH200 GPU搭載機材の2.1%(約47分の1)となりました。
これは、B300 GPUがAIワークロードに最適化された設計である一方、HPL Benchmarkで測定される高精度演算(FP64)はH200 GPUの方が優れているためと考えられます。したがって、科学技術計算など高精度な数値演算を必要とする場面では、H200 GPUが有用であると考えられます。

GMOインターネットからのコメント
GMOインターネット インフラ・運用本部 プロジェクト統括チームのエグゼクティブリードである佐藤嘉昌氏は、今回のベンチマーク結果について、「当社が用意した環境・条件下での検証結果ではあるが、B300 GPUとH200 GPUの性能特性の違いを示す一つのデータとして参考にしていただけると考えている」と述べています。
「GMO GPUクラウド」は、顧客の開発目的や利用用途に寄り添い、効率的に計算資源を活用できるよう、技術協力を継続的に行い、AI開発環境における技術向上を支援していくとのことです。このような検証情報の提供を通じて、顧客のGPUクラウドサービス選択をサポートし、日本のAI産業の発展に貢献していく方針です。
今後の展開
GMOインターネットは、「GMO GPUクラウド」を通じて、生成AI分野に取り組む企業や研究機関に対し、ワークロード特性に応じて最適なGPUクラウドサービスを選択できる柔軟な計算環境を提供していくとしています。
今回の性能検証結果を踏まえ、生成AIの学習・推論といったAIワークロードに強みを持つB300 GPUと、高精度な数値計算を必要とする用途に適したH200 GPUを、顧客のユースケースに応じて柔軟に組み合わせて提案していくとのことです。単なるGPUリソースの提供にとどまらず、顧客の開発目的や利用用途に応じた環境のカスタマイズから運用最適化まで、技術面・コスト面の両面で伴走支援を提供し、開発期間の短縮とコスト低減に貢献し、国内AI産業の発展を促進します。
「GMO GPUクラウド」について
「GMO GPUクラウド」は、NVIDIA H200 Tensor コアGPUを搭載し、国内初となる高速ネットワーク NVIDIA Spectrum-Xと高速ストレージを実装しています。
2024年11月に発表された世界のスーパーコンピュータ性能ランキング「TOP500」では、世界第37位・国内第6位にランクインし、商用クラウドサービスとしては国内最速クラスの計算基盤を提供しています。さらに、2025年6月には電力効率を競う世界ランキング「Green500」にて世界第34位・国内第1位を獲得し、高性能と省電力性の両立が国際的に評価されました。加えて、2025年12月にはNVIDIAの次世代GPU「NVIDIA Blackwell Ultra GPU」を搭載した「NVIDIA HGX B300」のクラウドサービス提供を開始しています。
詳細については、GMO GPUクラウドをご覧ください。
MLPerfの名称およびロゴは、米国およびその他の国におけるMLCommons Associationの登録商標および未登録商標です。詳細については、www.mlcommons.orgをご覧ください。

