Akamai Technologiesは、グローバルなクラウドインフラを強化するため、数千基のNVIDIA Blackwell GPUを展開し、世界最大級の分散型AIプラットフォームを構築することを発表しました。

AI活用の新たな段階:推論の重要性
これまでのAI開発は、主に「モデルの学習」に焦点が当てられてきました。しかし、AIが私たちの生活やビジネスで広く使われるようになるにつれて、学習済みのAIモデルを使って実際に答えを導き出す「AI推論(インファレンス)」の重要性が高まっています。多くの組織がAI導入の障壁として「遅延」を挙げており、Akamaiはこの課題を解決するために、世界中に分散されたインフラでAI推論を高速化することを目指しています。
AkamaiのCloud Technology Group担当Chief Operating Officer兼General ManagerであるAdam Karon氏は、AIモデルの構築には中央集約型の「AIファクトリー」が不可欠である一方で、それらのモデルを大規模に実用化するには分散型の「神経系」が必要だと述べています。Akamaiは、推論に最適化されたコンピューティングをグローバルネットワーク全体に分散配置することで、AIを研究室から実際の作業現場へと届ける基盤を提供します。
NVIDIA Blackwell GPUによる分散型AIの実現
NVIDIA Blackwell GPUの採用は、AI推論時代に向けてAkamaiが掲げる「グローバル分散型AIコンピューティンググリッド」というビジョンをさらに前進させるものです。AI処理を中央集約型から分散型インフラへと拡張することで、自動配送、スマートグリッド、手術支援ロボット、高度な不正検知といった物理システムとの連携が可能になります。これにより、従来のクラウドアーキテクチャが抱える地理的制限やコストの制約を受けることなく、AIを幅広く活用できるようになります。
NVIDIA Blackwell AIインフラストラクチャの統合により、以下のメリットが期待されます。
-
予測可能で高性能な推論: 専用GPUクラスターでAIワークロードを処理し、迅速なレスポンスを生成します。
-
ローカライズされたファインチューニング: 大規模言語モデル(LLM)をオンサイトで最適化し、データのプライバシー保護や地域のコンプライアンス要件をサポートします。
-
モデル学習後の最適化: 独自のデータに基づいて基盤モデルを微調整・適応させ、特定のタスクにおける精度を向上させます。
このプラットフォームは、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したNVIDIA RTX PRO Server、およびNVIDIA BlueField-3 DPUと、Akamaiが世界4,400拠点以上に展開する分散型クラウドコンピューティングインフラおよびグローバルエッジネットワークを組み合わせたものです。
Akamaiは、2025年10月に発表したAkamai Inference Cloudを通じて、AI推論をユーザーやデバイスの近くで実行することで、AIの利用場所と利用方法を再定義しました。NVIDIA AIインフラストラクチャを活用したAkamaiのソリューションは、従来のハイパースケーラーのインフラと比較して、遅延を最大2.5倍低減し、AI推論にかかるコストを最大86%削減する可能性があります。
Akamai Technologiesについて
Akamaiは、オンラインビジネスを強化し、保護するサイバーセキュリティおよびクラウドコンピューティング企業です。市場をリードするセキュリティソリューション、優れた脅威インテリジェンス、グローバル運用チームにより、エンタープライズデータとアプリケーションをあらゆる場所で保護する多層防御を提供しています。Akamaiのフルスタック・クラウド・コンピューティング・ソリューションは、世界で最も分散化されたプラットフォームで高いパフォーマンスとコストを実現しています。多くのグローバル企業が、ビジネスの成長に必要な業界最高レベルの信頼性、拡張性、専門知識を提供するAkamaiに信頼を寄せています。
詳細については、以下のリンクをご覧ください。

