
NVIDIAは、エージェント型AIと強化学習という、AIの新しい時代に向けて特別に作られたプロセッサ「NVIDIA Vera CPU」を発表しました。この新しいCPUは、従来のCPUと比べて、処理の効率が2倍になり、速度も1.5倍に向上しています。
エージェント型AIとは?
エージェント型AIとは、自分で考えて行動し、与えられたタスクを計画したり、ツールを使ったり、データとやり取りしたり、プログラムを実行したり、結果を確認したりするAIのことです。このようなAIが進化するにつれて、そのAIを動かすためのコンピューターの性能や、どれくらいの規模で動かせるか、コストはどのくらいか、といった点が非常に重要になります。
NVIDIA Vera CPUは、すでに成功を収めている NVIDIA Grace™ CPU の技術をさらに発展させたものです。これにより、あらゆる規模や業界の企業が、大規模なエージェント型AIを実現するための「AIファクトリー」を効率的に作れるようになります。Veraは、特にコーディングアシスタントや、個人向け・企業向けのエージェントといった大規模なAIサービスにおいて、より速い処理速度、素早い応答、そして高い効率性を提供します。
多くの企業がVera CPUを採用
NVIDIA Vera CPUの導入に向けて、すでに多くの大手企業がNVIDIAと協力しています。Alibaba、ByteDance、Meta、Oracle Cloud Infrastructureといった主要なクラウドサービス提供企業や、CoreWeave、Lambda、Nebius、Nscaleなどが名を連ねています。
また、Dell TechnologiesやHPE、Lenovo、Supermicroといった世界的なシステムメーカーをはじめ、ASUS、Compal、Foxconn、GIGABYTE、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynnなどの製造パートナーも、この技術を使ったサーバーの開発を進めています。この広範な採用により、VeraはAIの作業を行う上で重要な新しいCPUの標準となり、AIの利用を広げ、イノベーションを加速させることが期待されます。
NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、「Veraは、AIがエージェント型になり、自ら考えて行動できるようになるという転換期に登場しました。このようなAIの作業を調整するシステムはますます重要になります。CPUは、AIモデルをただ支えるだけでなく、AIモデルを動かす役割を果たすようになります。画期的な性能と電力効率によって、Veraはより速く思考し、さらに大きくスケールするAIシステムを実現します」と述べています。
あらゆるデータセンターに対応する設計
NVIDIAは、液冷式のVera CPUを256基搭載した新しいVera CPUラックを発表しました。これにより、22,500以上のCPU環境を同時に維持し、それぞれが最高の性能で独立して動作できるようになります。AIファクトリーでは、この1つのラック内で、数万もの同時実行インスタンスやエージェント型ツールを素早く展開し、規模を拡大できます。
新しいVeraラックは、NVIDIA MGX™というモジュラー設計の基準に基づいて作られており、世界中の80社のパートナーがこれをサポートしています。
Vera CPUは、NVIDIA Vera Rubin NVL72 プラットフォームの一部として、NVIDIA NVLink™-C2Cという技術を使ってNVIDIA GPUと連携します。この技術は、PCIe Gen 6の7倍にあたる1.8 TB/sという非常に速い速度でCPUとGPUの間でデータを共有できます。さらにNVIDIAは、GPUを高速に使う作業のために、VeraをメインCPUとして採用した新しいリファレンスデザインも発表しています。
Veraのシステムパートナーは、CPUを1つ使うサーバーと2つ使うサーバーの両方の構成で提供します。これは、強化学習、エージェント型AIの推論、データ処理、作業の自動化、ストレージの管理、クラウドアプリケーション、高性能計算など、幅広い作業に最適です。
すべての構成で、Veraは NVIDIA ConnectX® SuperNIC カード や NVIDIA BlueField®-4 プロセッサ と組み合わされます。これにより、エージェント型AIに不可欠な高速ネットワーク、ストレージ、セキュリティ機能が実現されます。顧客は、特定の作業に合わせてシステムを最適化しながら、プラットフォーム全体で統一されたソフトウェアを使い続けることができます。
エージェント型AIの規模拡大を見据えた設計
Veraは、高性能で電力効率の良いCPUコア、高速なメモリシステム、そして第2世代のNVIDIA Scalable Coherency Fabricを組み合わせています。これにより、エージェント型AIや強化学習でよく見られる非常に負荷の高い状況でも、AIエージェントがより速く応答できるようになります。
Veraは、NVIDIAが独自に設計した88個の「Olympusコア」を搭載しています。これにより、コンパイラ(プログラムを翻訳するソフト)、ランタイムエンジン(プログラムを実行するソフト)、データ分析の仕組み、作業を調整するサービスなどで、非常に優れた性能を発揮します。それぞれのコアは、NVIDIA Spatial Multithreadingという技術により、同時に2つのタスクを実行できるため、安定して予測しやすい性能を提供します。これは、多くの仕事を同時に処理するAIファクトリーに最適です。
電力効率をさらに高めるため、VeraはLPDDR5Xメモリをベースにした第2世代のNVIDIA低消費電力メモリシステムを採用しています。これにより、最大1.2 TB/sという高速なデータ転送が可能になり、一般的なCPUと比べて帯域幅は2倍でありながら、消費電力は半分に抑えられています。
幅広いエコシステムからのサポート
ストリーミングデータプラットフォームの大手であるRedpandaは、Veraを活用して性能を大幅に向上させています。
RedpandaのCEO兼創業者であるアレックス・ガレゴ氏は、次のように述べています。「Redpandaは最近、Apache Kafka互換のワークロードをNVIDIA Veraでテストしたところ、他のベンチマークシステムよりも大幅に優れたパフォーマンスを達成し、遅延を最大5.5倍削減しました。Veraは、コアあたりのメモリ増加とオーバーヘッドの削減というCPUアーキテクチャの新しい方向性を示しており、お客様がリアルタイムストリーミングワークロードをこれまで以上に拡張し、新しいAIおよびエージェント型アプリケーションを開拓することを可能にします。」
Vera CPUの導入を計画している国立研究機関には、ライプニッツ・スーパーコンピューティング・センター、ロスアラモス国立研究所、ローレンス・バークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター (TACC) が含まれます。
TACCのハイパフォーマンスコンピューティングディレクターであるジョン・ケイズ氏は、「TACCでは先日、今後導入予定のHorizonシステムに備えてNVIDIAのVera CPUプラットフォームをテストし、6つの科学アプリケーションで優れた初期結果を確認しました。Veraのコアあたりの性能とメモリ帯域幅は、科学計算にとって画期的な進歩です。今年後半にHorizonのCPUユーザーへVeraベースのノードを提供できることを楽しみにしています」と述べています。
Vera CPUの導入を計画している主要なクラウドサービスプロバイダーには、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultrなどが挙げられます。
Vera CPUを採用している主要なインフラプロバイダーには、
-
ASRock Rack
-
ASUS
-
Compal
-
Cisco
-
Dell
-
Foxconn
-
GIGABYTE
-
HPE
-
Hyve
-
Inventec
-
Lenovo
-
MiTAC
-
MSI
-
Pegatron
-
Quanta Cloud Technology (QCT)
-
Supermicro
-
Wistron
-
Wiwynn
などが含まれます。
提供時期
NVIDIA Vera CPUは現在量産中で、今年後半(2026年)にパートナー企業から提供が開始される予定です。
NVIDIAの最新情報については、NVIDIAのウェブサイトをご覧ください。
また、ジェンスン・フアン氏の GTC 基調講演のリプレイ や、その他の GTC セッション も視聴可能です。

