NVIDIA、エージェント型AI向けCPU「Vera」を発表:処理能力と電力効率を大幅向上

AI

NVIDIA Vera CPU

NVIDIAは、エージェント型AIと強化学習という、AIの新しい時代に向けて特別に作られたプロセッサ「NVIDIA Vera CPU」を発表しました。この新しいCPUは、従来のCPUと比べて、処理の効率が2倍になり、速度も1.5倍に向上しています。

エージェント型AIとは?

エージェント型AIとは、自分で考えて行動し、与えられたタスクを計画したり、ツールを使ったり、データとやり取りしたり、プログラムを実行したり、結果を確認したりするAIのことです。このようなAIが進化するにつれて、そのAIを動かすためのコンピューターの性能や、どれくらいの規模で動かせるか、コストはどのくらいか、といった点が非常に重要になります。

NVIDIA Vera CPUは、すでに成功を収めている NVIDIA Grace™ CPU の技術をさらに発展させたものです。これにより、あらゆる規模や業界の企業が、大規模なエージェント型AIを実現するための「AIファクトリー」を効率的に作れるようになります。Veraは、特にコーディングアシスタントや、個人向け・企業向けのエージェントといった大規模なAIサービスにおいて、より速い処理速度、素早い応答、そして高い効率性を提供します。

多くの企業がVera CPUを採用

NVIDIA Vera CPUの導入に向けて、すでに多くの大手企業がNVIDIAと協力しています。Alibaba、ByteDance、Meta、Oracle Cloud Infrastructureといった主要なクラウドサービス提供企業や、CoreWeave、Lambda、Nebius、Nscaleなどが名を連ねています。

また、Dell TechnologiesやHPE、Lenovo、Supermicroといった世界的なシステムメーカーをはじめ、ASUS、Compal、Foxconn、GIGABYTE、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynnなどの製造パートナーも、この技術を使ったサーバーの開発を進めています。この広範な採用により、VeraはAIの作業を行う上で重要な新しいCPUの標準となり、AIの利用を広げ、イノベーションを加速させることが期待されます。

NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、「Veraは、AIがエージェント型になり、自ら考えて行動できるようになるという転換期に登場しました。このようなAIの作業を調整するシステムはますます重要になります。CPUは、AIモデルをただ支えるだけでなく、AIモデルを動かす役割を果たすようになります。画期的な性能と電力効率によって、Veraはより速く思考し、さらに大きくスケールするAIシステムを実現します」と述べています。

あらゆるデータセンターに対応する設計

NVIDIAは、液冷式のVera CPUを256基搭載した新しいVera CPUラックを発表しました。これにより、22,500以上のCPU環境を同時に維持し、それぞれが最高の性能で独立して動作できるようになります。AIファクトリーでは、この1つのラック内で、数万もの同時実行インスタンスやエージェント型ツールを素早く展開し、規模を拡大できます。

新しいVeraラックは、NVIDIA MGX™というモジュラー設計の基準に基づいて作られており、世界中の80社のパートナーがこれをサポートしています。

Vera CPUは、NVIDIA Vera Rubin NVL72 プラットフォームの一部として、NVIDIA NVLink™-C2Cという技術を使ってNVIDIA GPUと連携します。この技術は、PCIe Gen 6の7倍にあたる1.8 TB/sという非常に速い速度でCPUとGPUの間でデータを共有できます。さらにNVIDIAは、GPUを高速に使う作業のために、VeraをメインCPUとして採用した新しいリファレンスデザインも発表しています。

Veraのシステムパートナーは、CPUを1つ使うサーバーと2つ使うサーバーの両方の構成で提供します。これは、強化学習、エージェント型AIの推論、データ処理、作業の自動化、ストレージの管理、クラウドアプリケーション、高性能計算など、幅広い作業に最適です。

すべての構成で、Veraは NVIDIA ConnectX® SuperNIC カードNVIDIA BlueField®-4 プロセッサ と組み合わされます。これにより、エージェント型AIに不可欠な高速ネットワーク、ストレージ、セキュリティ機能が実現されます。顧客は、特定の作業に合わせてシステムを最適化しながら、プラットフォーム全体で統一されたソフトウェアを使い続けることができます。

エージェント型AIの規模拡大を見据えた設計

Veraは、高性能で電力効率の良いCPUコア、高速なメモリシステム、そして第2世代のNVIDIA Scalable Coherency Fabricを組み合わせています。これにより、エージェント型AIや強化学習でよく見られる非常に負荷の高い状況でも、AIエージェントがより速く応答できるようになります。

Veraは、NVIDIAが独自に設計した88個の「Olympusコア」を搭載しています。これにより、コンパイラ(プログラムを翻訳するソフト)、ランタイムエンジン(プログラムを実行するソフト)、データ分析の仕組み、作業を調整するサービスなどで、非常に優れた性能を発揮します。それぞれのコアは、NVIDIA Spatial Multithreadingという技術により、同時に2つのタスクを実行できるため、安定して予測しやすい性能を提供します。これは、多くの仕事を同時に処理するAIファクトリーに最適です。

電力効率をさらに高めるため、VeraはLPDDR5Xメモリをベースにした第2世代のNVIDIA低消費電力メモリシステムを採用しています。これにより、最大1.2 TB/sという高速なデータ転送が可能になり、一般的なCPUと比べて帯域幅は2倍でありながら、消費電力は半分に抑えられています。

幅広いエコシステムからのサポート

ストリーミングデータプラットフォームの大手であるRedpandaは、Veraを活用して性能を大幅に向上させています。

RedpandaのCEO兼創業者であるアレックス・ガレゴ氏は、次のように述べています。「Redpandaは最近、Apache Kafka互換のワークロードをNVIDIA Veraでテストしたところ、他のベンチマークシステムよりも大幅に優れたパフォーマンスを達成し、遅延を最大5.5倍削減しました。Veraは、コアあたりのメモリ増加とオーバーヘッドの削減というCPUアーキテクチャの新しい方向性を示しており、お客様がリアルタイムストリーミングワークロードをこれまで以上に拡張し、新しいAIおよびエージェント型アプリケーションを開拓することを可能にします。」

Vera CPUの導入を計画している国立研究機関には、ライプニッツ・スーパーコンピューティング・センター、ロスアラモス国立研究所、ローレンス・バークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター (TACC) が含まれます。

TACCのハイパフォーマンスコンピューティングディレクターであるジョン・ケイズ氏は、「TACCでは先日、今後導入予定のHorizonシステムに備えてNVIDIAのVera CPUプラットフォームをテストし、6つの科学アプリケーションで優れた初期結果を確認しました。Veraのコアあたりの性能とメモリ帯域幅は、科学計算にとって画期的な進歩です。今年後半にHorizonのCPUユーザーへVeraベースのノードを提供できることを楽しみにしています」と述べています。

Vera CPUの導入を計画している主要なクラウドサービスプロバイダーには、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultrなどが挙げられます。

Vera CPUを採用している主要なインフラプロバイダーには、

  • Aivres

  • ASRock Rack

  • ASUS

  • Compal

  • Cisco

  • Dell

  • Foxconn

  • GIGABYTE

  • HPE

  • Hyve

  • Inventec

  • Lenovo

  • MiTAC

  • MSI

  • Pegatron

  • Quanta Cloud Technology (QCT)

  • Supermicro

  • Wistron

  • Wiwynn
    などが含まれます。

提供時期

NVIDIA Vera CPUは現在量産中で、今年後半(2026年)にパートナー企業から提供が開始される予定です。

NVIDIAの最新情報については、NVIDIAのウェブサイトをご覧ください。
また、ジェンスン・フアン氏の GTC 基調講演のリプレイ や、その他の GTC セッション も視聴可能です。

タイトルとURLをコピーしました