NVIDIA、AIの進化を支える新しいストレージ技術「BlueField-4 STX」を発表

生成AI(Generative AI)

サーバーラック

NVIDIAは、AIの能力をさらに引き出すための新しいストレージ技術「NVIDIA BlueField-4 STX」を発表しました。この技術は、特に「エージェント型AI」と呼ばれる、まるで人間のように多くの手順や会話を重ねてタスクを実行するAIのために作られています。

AIエージェントの課題を解決するSTX

従来のデータセンターのストレージは、たくさんのデータを保存するのには向いていますが、AIエージェントがリアルタイムでデータにアクセスし、作業中の情報を覚えておく(コンテキストを保持する)という点では、十分な速さを持っていませんでした。AIエージェントは、スムーズな対話やタスク実行のために、このような「ワーキングメモリ」のような高速なストレージを必要とします。

コンテキスト(AIが処理する情報の範囲)が広がると、従来のストレージではAIの推論(判断や予測)が遅くなり、GPU(AIの計算を担う高性能な部品)が十分に活用されないという問題がありました。

NVIDIA BlueField-4 STXは、この課題を解決するために開発されました。この新しいアーキテクチャは、データ処理の速さを最大5倍に、エネルギー効率を最大4倍に向上させ、データの取り込み速度を2倍にすることができます。これにより、AIエージェントはよりスムーズに、そして効率的に動作できるようになります。

STXを支える技術とパートナー

このSTXアーキテクチャは、NVIDIAの「Vera Rubinプラットフォーム」という基盤の上で動きます。特にストレージに最適化された新しい「NVIDIA BlueField-4プロセッサ」が中心となり、高速な処理を実現します。他にも、NVIDIA Vera CPUやNVIDIA ConnectX-9 SuperNIC、NVIDIA Spectrum-X Ethernetネットワーキング、そしてNVIDIA DOCAやNVIDIA AI Enterpriseといったソフトウェアが組み合わされています。

NVIDIAの創業者兼CEOであるジェンスン フアン氏は、エージェント型AIがソフトウェアのあり方を根本的に変えつつあり、それに伴いコンピューティング基盤も作り直す必要があると述べています。そして、NVIDIA STXがAIファクトリーを最高の性能で稼働させ続けるためのモジュール型基盤を提供すると強調しています。

STXをいち早く採用し、コンテキストメモリストレージとして利用を計画している企業には、CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure (OCI)、Vultrなどが含まれます。

また、STXを基盤とした次世代AIインフラを共同で開発するストレージプロバイダーのパートナーとして、Cloudian、DDN、Dell Technologies、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data、WEKAなどが名を連ねています。さらに、AIC、Supermicro、Quanta Cloud Technology (QCT)といった製造パートナーも、STX基盤のシステム構築に取り組んでいます。

NVIDIA CMX コンテキスト メモリ ストレージ プラットフォーム

STXの最初の実装には、新しい「NVIDIA CMX™ コンテキスト メモリ ストレージ プラットフォーム」が含まれています。これは、GPUのメモリを高性能なコンテキストレイヤーで拡張し、スケーラブルな推論システムやエージェント型システム向けに、従来のストレージと比較して最大5倍のトークン/秒を提供します。

STXベースのプラットフォームは、今年の後半にパートナー企業から提供が開始される予定です。

NVIDIA STXに関する詳細情報は、以下のリンクからご覧いただけます。

また、パートナー企業の取り組みについては、以下のリンクもご参照ください。

タイトルとURLをコピーしました