AMDは、一般消費者向けのRadeon GPUでもAI開発を可能にするため、ROCmのアップデートを行いました。これまでAIアプリケーションや大規模なワークロードはデータセンターアーキテクチャに限定されていると考えられていましたが、業界は徐々に進化し、コンシューマーGPUでもAI計算を味わえるようになってきています。
AMDは、Linux 24.10.3とROCm 6.1.3の組み合わせで、RDNA 3アーキテクチャのGPUでAI/MLワークロードをサポートするよう、大幅な努力を行いました。これにより、PyTorch、ONNX Runtime、TensorFlowなどの環境で作業する研究者や開発者は、AMD Radeon RX 7000シリーズやRadeon W7000シリーズのGPUのパフォーマンスを活用できるようになります。
AMDは、RDNA 3アーキテクチャベースのソリューションはコスト効率が高く、ローカライズされたシステムを提供するため、クラウドベースのサービスに存在する欠点をすべて取り除くことができると述べています。
大容量メモリを搭載したRadeon GPUでMLパフォーマンスを向上
現在のモデルは、AIのために設計されていない標準的なハードウェアやソフトウェアの機能を簡単に上回ってしまうため、MLエンジニアはMLを利用したアプリケーションの開発やトレーニングのための費用対効果の高いソリューションを求めています。最新のハイエンドAMD Radeon 7000シリーズGPUを搭載したローカルPCやワークステーションは、24GBまたは48GBの大容量GPUメモリを利用できるため、拡大するMLワークフローの課題に対応するための堅牢かつ強力で経済的なオプションを提供します。
AMD ROCm 6.1.3の主な変更点
ROCm 6.1.3には、PyTorch、TensorFlow、およびONNX Runtimeのより広範囲のソースデータのサポートが含まれています。これは、需要の高いAIライブラリを追加し、より広範な採用を促進するため、AMDのソフトウェアスタックにとって大きなアップデートです。RDNA 3 GPUのサポート追加は、「エッジAI環境」を促進する一歩となりますが、このような動きにはパフォーマンスの制約があり、ベンチマークが表面化した場合には注目していきたいと思います。
まとめ
AMDは、ROCmの最新アップデートにより、一般消費者向けのRadeon GPUでもAI/ML開発を可能にしました。これにより、研究者や開発者はRadeon RX 7000シリーズやRadeon W7000シリーズのGPUを活用し、コスト効率の高いローカライズされたシステムでAIアプリケーションを開発できるようになります。AMDのソフトウェアスタックへの大幅な改善により、AIの採用がさらに進むことが期待されます。