Microsoftは、同社のAzureクラウドプラットフォームが、NVIDIAの最新のBlackwell GB200 AIサーバーを搭載する世界初のプラットフォームになると発表しました。Microsoft Azureの公式アカウントは、GB200搭載のAIサーバーを使用して高度なAIモデルをスケーリングする、すべてのクラウドシステムの中で最初の存在であると投稿しています。
Azure、NVIDIA Blackwell GB200搭載のAIサーバーを披露
Microsoft Azureは、仮想マシンやAI処理などのサービスを顧客に提供し、ユーザーがハードウェアを所有することなくアプリケーションを管理、スケーリング、アップグレードできるようにしています。最新のNVIDIA Blackwell B200 GPUを使用することで、Azureはこれまで以上の高いパフォーマンスをユーザーに提供し、ユーザーエクスペリエンスを向上させています。
GB200搭載のAIサーバーは、GB200ダイを採用し、192 GB のHBM3eメモリを備えたフラッグシップデータセンターB200 GPUを活用します。このGPUは、ディープラーニング、大規模AIモデルのトレーニング、大規模データセットの処理などの高度で重い作業負荷を対象とした高性能チップで、前世代と比べてより効率的です。
B200 GPUの活用でAIモデルのトレーニングを高速化
B200 GPUを使用することで、Azureでは他のすべてのクラウドコンピューティングプラットフォームをしのぐ、リーディングなパフォーマンスを確保しながら、AIモデルをより高速にトレーニングできます。写真で示されているように、同社は複数のB200 GPUを搭載したサーバーラックを所有しています。このサーバー内でいくつのB200 GPUが使用されているのか、また、同社がこれまでにいくつのサーバーを導入したのかは明らかになっていません。
液体冷却ソリューションによるサーバーの低温維持
サーバーは液体冷却ソリューションによって冷却され、低温に保たれています。これは、Microsoftが商用サーバーへの液体冷却の実装方法を見極めるための初期テスト段階のようです。
なお、今回紹介されたサーバーは、NVIDIAが36基のGrace CPUと72基のB200 GPUを活用して強力なプラットフォームを構築するために用意したGB200 NVL72ではないことに留意する必要があります。そのラックは非常に強力で、最大3,240 TFLOPSのFP64 Tensor Coreパフォーマンスを実現できます。これは、台湾最速のスーパーコンピューターにFoxconnが採用する予定です。
まとめ
Microsoft Azureは、NVIDIA Blackwell GB200 AIサーバーを搭載する世界初のクラウドプラットフォームとなり、クラウドコンピューティングの新時代を切り開いています。最先端のAIモデルを強化するために、Infinibandネットワークと革新的な密閉型液体冷却を活用し、他のクラウドプラットフォームをしのぐパフォーマンスを提供しています。B200 GPUの力を活かすことで、Azureはユーザーにこれまでにない高速でスケーラブルなAI処理環境を提供し、業界をリードしていくでしょう。
最近、OpenAIがXでDGX B200システムを披露したことを報告しましたが、NVIDIAのBlackwellチップを使用するために多くの企業が参入しているようです。