
AIデータクラウドを提供するSnowflakeと、GPU技術で知られるNVIDIAは、企業の機械学習(ML)をさらに強力に進めるための連携を発表しました。この連携により、NVIDIAの高度なライブラリがSnowflakeのプラットフォームに直接組み込まれ、AI開発がこれまで以上に速く、簡単になります。
NVIDIAの技術でAI開発が劇的に加速
今回の連携では、NVIDIAのデータサイエンス向けライブラリ「CUDA-X」の一部が、SnowflakeのML機能に最初から搭載されます。これにより、Snowflakeを利用する企業は、GPU(グラフィックス処理ユニット)を使った高速な計算アルゴリズムをMLワークフローで活用できるようになります。
データサイエンティストにとっての大きなメリットは、コードを大きく変更することなく、普段使っているPythonライブラリ(scikit-learn、pandasなど)でのモデル開発を迅速化できる点です。NVIDIAの検証によると、NVIDIA A10 GPUを使うことで、CPUと比較してランダムフォレストが最大5倍、HDBSCANが最大200倍も高速化されたとのことです。
Snowflakeのプロダクト担当上席副社長であるChristian Kleinerman氏は、「あらゆる企業がデータとAIを簡単に、安全に、そして高性能に活用できるよう支援するという当社のビジョンを、今回のNVIDIAとの協力がさらに加速させます」と述べています。これにより、データサイエンティストはインフラの管理にかける時間を減らし、より多くの時間をデータの分析やビジネスの成果向上に集中できるようになるでしょう。
大規模なデータ処理やゲノム解析への応用
この統合により、NVIDIAの高性能なライブラリが、Snowflakeの機械学習開発環境である「Snowflake Container Runtime」を通じて直接使えるようになります。これにより、これまで処理に時間がかかっていた次のような課題が解決できるようになります。
-
大規模なトピックモデリング: 何百万件もの製品レビューのような大量のデータを分類する際、CPUでは数時間かかっていた処理が、GPUを使えば数分で完了します。
-
ゲノム情報解析のワークフロー: 膨大な遺伝子配列データの解析時間が大幅に短縮され、研究者は遺伝子ファミリーの予測などの分類タスクを迅速に行い、専門的な分析に集中できるようになります。
今後の展望
今回の統合は、AIデータクラウド内で生成AIの機能をさらに強化するためのSnowflakeとNVIDIAの継続的な協力の一環です。両社は今後も密接に連携し、従来の機械学習モデルの開発から、企業向けのLLM(大規模言語モデル)の展開まで、最新のGPU高速化ツールをSnowflakeの顧客に提供していく予定です。
この最新機能は、本日よりSnowflake Notebooks内のコンテナランタイム、またはMLジョブのリモート実行を通じて、SnowflakeとNVIDIAの共同顧客に提供が開始されています。
関連情報:
-
SnowflakeとNVIDIAのパートナーシップについて詳しくは、こちらのブログ投稿をご覧ください。
-
Snowflakeの最新情報は、LinkedInやX(旧Twitter)(日本公式)でも発信されています。

