NVIDIAは、2026年3月16日に開催されたGTCにおいて、次世代の「エージェント型AI」を推進する新たなプラットフォーム「NVIDIA Vera Rubin」を発表しました。このプラットフォームは、AIの開発から運用までのあらゆる段階を最適化するために設計された7つの新しいチップを統合し、現在量産段階に入っています。
エージェント型AIとは、自律的に判断し行動できるAIのことで、その進化には強力な計算基盤が不可欠です。NVIDIA Vera Rubinプラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 Switch、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU、NVIDIA Spectrum™-6 Ethernet スイッチ、そして新たに統合されたNVIDIA Groq 3 LPUといった革新的なチップ群で構成されています。これらは、まるで一つの巨大なAIスーパーコンピューターのように連携し、大規模なAIモデルの学習、調整、そしてリアルタイムでのエージェント型AIの動作を支えます。

NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、「Vera Rubinは、世代を超えた大きな飛躍です。画期的な7つのチップ、5つのラック、そして一つの巨大なスーパーコンピューターが、AIのあらゆる段階を支えるために構築されています。Vera Rubinが牽引する史上最大のインフラ構築が始まり、エージェント型AIの転換期が到来しました」と述べています。
AnthropicのCEOであるダリオ・アモデイ氏やOpenAIのCEOであるサム・アルトマン氏も、NVIDIA Vera Rubinプラットフォームが、より複雑なAIの推論やエージェント型のワークフロー、そして高性能なモデルを大規模に実行するための基盤となることに期待を寄せています。
AIインフラの進化:PODスケールシステム
AIを動かすためのシステム(AIインフラ)は、これまで個別のチップやサーバーから、複数の機器が一体となった「ラックスケールシステム」や、さらに大規模な「PODスケール」という形へと進化しています。これにより、スタートアップから大企業、公的機関まで、あらゆる組織がAIをより高性能かつ効率的に利用できるようになります。
NVIDIA Vera Rubinプラットフォームは、80社以上のMGXエコシステムパートナーとグローバルなサプライチェーンに支えられ、コンピューティング、ネットワーク、ストレージを深く連携させることで、AI専用に構築された複数のラックが連携する「PODスケールプラットフォーム」を提供します。
各種の高性能ラック
NVIDIA Vera Rubinプラットフォームは、AIの様々な要求に応えるために、以下のような専用ラックを提供します。
-
NVIDIA Vera Rubin NVL72 ラック
72基のRubin GPUと36基のVera CPUなどを搭載し、NVIDIA Blackwellプラットフォームと比べて、同じ規模のAIモデルのトレーニングに必要なGPUの数を4分の1に削減し、AIが処理する情報(トークン)あたりのコストを10分の1に抑え、電力あたりのAI処理能力を最大10倍向上させます。大規模なAI工場向けに設計されており、効率的なAIトレーニングと運用を可能にします。 -
NVIDIA Vera CPU ラック
エージェント型AIや強化学習といったAIの種類では、GPUで動くAIが生成した結果を検証するために、多くのCPUベースの環境が必要です。Vera CPUラックは、最大256基のVera CPUを搭載し、従来のCPUよりも2倍の効率と50%の高速化を実現し、大規模なエージェント型AIの実現を支援します。 -
NVIDIA Groq 3 LPX ラック
このラックは、エージェント型システムで求められる「短い遅延」と「大量の情報処理」に対応するために設計されました。Vera Rubinと連携することで、1兆個のパラメータを持つような巨大なAIモデルの処理能力を電力あたり最大35倍向上させ、AIサービス提供者の収益機会を最大10倍に拡大する可能性を秘めています。今年後半に提供が開始される予定です。 -
NVIDIA BlueField-4 STX ストレージ ラック
AIが生成する膨大なデータ(Key-Valueキャッシュデータ)を効率的に保存・取得するために最適化されたストレージシステムです。専用のフレームワーク「NVIDIA DOCA Memos™」により、AIの推論処理能力を最大5倍向上させ、電力効率も大幅に改善します。これにより、AIエージェントとの高速なやり取りや、より拡張性の高いAIサービスが可能になります。
BlueField-4 STXの詳細については、以下のリンクをご参照ください。
NVIDIA BlueField-4 STXストレージアーキテクチャ -
NVIDIA Spectrum-6 SPX Ethernet ラック
AI工場内のデータ通信を高速化するために設計されています。高いデータ転送速度と低い遅延を実現し、AIシステムの安定稼働を支えます。従来の光通信部品と比べて、光電力効率を最大5倍、信頼性を10倍に高めるコパッケージドオプティクスを搭載しています。
エネルギー効率とシステムの信頼性向上
NVIDIAは、200社以上のデータセンターインフラパートナーと共に、Vera Rubinプラットフォーム向けの「DSX」を発表しました。これには、データセンター内の電力供給の制限があっても、AIインフラの設置数を30%増やせる「DSX Max-Q」や、AI工場を電力網に柔軟に対応させることで、使われていない100ギガワットの電力を活用できる「DSX Flex」ソフトウェアが含まれます。
また、NVIDIAは、AIインフラの設計図である「Vera Rubin DSX AI Factory リファレンスデザイン」も公開しました。これは、コンピューティング、ネットワーク、ストレージ、電力、冷却システムを密接に統合することで、エネルギー効率を高め、AI工場が常に高い負荷で稼働しながら確実に拡張できるようにします。
Vera Rubin DSX AI Factory リファレンス デザイン
幅広いエコシステムによるサポート
Vera Rubinベースの製品は、今年後半にパートナー各社から提供が開始される予定です。これには、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureといった主要なクラウドプロバイダーのほか、以下のようなNVIDIAクラウドパートナーやグローバルなシステムメーカーが含まれます。
-
NVIDIAクラウドパートナー
-
グローバルシステムメーカー
-
Cisco
-
Lenovo
-
Supermicro
-
Foxconn
-
GIGABYTE
-
Inventec
-
Pegatron
-
Quanta Cloud Technology (QCT)
-
Wistron
-
Anthropic、Meta、Mistral AI、OpenAIといったAI研究開発の最先端を走る企業も、NVIDIA Vera Rubinプラットフォームを活用し、より大規模で高性能なモデルの開発を目指しています。このプラットフォームは、AIモデルの進化を加速させ、より低遅延で、より長い情報を処理できるマルチモーダルAIシステムの提供に貢献するでしょう。
この発表に関する詳細は、米国時間2026年3月16日に発表された以下のプレスリリースで確認できます。
NVIDIA Vera Rubin プラットフォームに関するプレスリリース
NVIDIAに関する詳しい情報は、以下の公式ウェブサイトをご覧ください。
NVIDIA 公式ウェブサイト

