Akamai、NVIDIA Blackwell GPUを数千基展開し、AI推論を高速化する分散型AIプラットフォームを構築へ

AI

Akamai Technologiesは、グローバルなクラウドインフラを強化するため、数千基のNVIDIA Blackwell GPUを展開し、世界最大級の分散型AIプラットフォームを構築することを発表しました。

Akamaiロゴ

AI活用の新たな段階:推論の重要性

これまでのAI開発は、主に「モデルの学習」に焦点が当てられてきました。しかし、AIが私たちの生活やビジネスで広く使われるようになるにつれて、学習済みのAIモデルを使って実際に答えを導き出す「AI推論(インファレンス)」の重要性が高まっています。多くの組織がAI導入の障壁として「遅延」を挙げており、Akamaiはこの課題を解決するために、世界中に分散されたインフラでAI推論を高速化することを目指しています。

AkamaiのCloud Technology Group担当Chief Operating Officer兼General ManagerであるAdam Karon氏は、AIモデルの構築には中央集約型の「AIファクトリー」が不可欠である一方で、それらのモデルを大規模に実用化するには分散型の「神経系」が必要だと述べています。Akamaiは、推論に最適化されたコンピューティングをグローバルネットワーク全体に分散配置することで、AIを研究室から実際の作業現場へと届ける基盤を提供します。

NVIDIA Blackwell GPUによる分散型AIの実現

NVIDIA Blackwell GPUの採用は、AI推論時代に向けてAkamaiが掲げる「グローバル分散型AIコンピューティンググリッド」というビジョンをさらに前進させるものです。AI処理を中央集約型から分散型インフラへと拡張することで、自動配送、スマートグリッド、手術支援ロボット、高度な不正検知といった物理システムとの連携が可能になります。これにより、従来のクラウドアーキテクチャが抱える地理的制限やコストの制約を受けることなく、AIを幅広く活用できるようになります。

NVIDIA Blackwell AIインフラストラクチャの統合により、以下のメリットが期待されます。

  • 予測可能で高性能な推論: 専用GPUクラスターでAIワークロードを処理し、迅速なレスポンスを生成します。

  • ローカライズされたファインチューニング: 大規模言語モデル(LLM)をオンサイトで最適化し、データのプライバシー保護や地域のコンプライアンス要件をサポートします。

  • モデル学習後の最適化: 独自のデータに基づいて基盤モデルを微調整・適応させ、特定のタスクにおける精度を向上させます。

このプラットフォームは、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したNVIDIA RTX PRO Server、およびNVIDIA BlueField-3 DPUと、Akamaiが世界4,400拠点以上に展開する分散型クラウドコンピューティングインフラおよびグローバルエッジネットワークを組み合わせたものです。

Akamaiは、2025年10月に発表したAkamai Inference Cloudを通じて、AI推論をユーザーやデバイスの近くで実行することで、AIの利用場所と利用方法を再定義しました。NVIDIA AIインフラストラクチャを活用したAkamaiのソリューションは、従来のハイパースケーラーのインフラと比較して、遅延を最大2.5倍低減し、AI推論にかかるコストを最大86%削減する可能性があります。

Akamai Technologiesについて

Akamaiは、オンラインビジネスを強化し、保護するサイバーセキュリティおよびクラウドコンピューティング企業です。市場をリードするセキュリティソリューション、優れた脅威インテリジェンス、グローバル運用チームにより、エンタープライズデータとアプリケーションをあらゆる場所で保護する多層防御を提供しています。Akamaiのフルスタック・クラウド・コンピューティング・ソリューションは、世界で最も分散化されたプラットフォームで高いパフォーマンスとコストを実現しています。多くのグローバル企業が、ビジネスの成長に必要な業界最高レベルの信頼性、拡張性、専門知識を提供するAkamaiに信頼を寄せています。

詳細については、以下のリンクをご覧ください。

タイトルとURLをコピーしました