ホームノート産総研、1基600万円のNVIDIA H200 6128基搭載したABCI 3.0で最先端のAI研究...

産総研、1基600万円のNVIDIA H200 6128基搭載したABCI 3.0で最先端のAI研究開発を推進:2025年1月本格稼働

大規模AIクラウド計算システム「ABCI 2.0」が「ABCI 3.0」にリプレース - 生成AIをはじめとした最先端AI技術の研究開発・評価・人材育成に優先提供

当サイトではアフィリエイトプログラム(Amazonアソシエイト含む)を利用して商品を紹介しています

国立研究開発法人 産業技術総合研究所(産総研)と株式会社AIST Solutionsは、2025年1月中旬までに大規模AIクラウド計算システム「ABCI 3.0」の一般提供を開始します。ABCI 3.0は、従来システム「ABCI 2.0」のGPUを最新のNVIDIA H200 6128基に置き換え、ピーク性能を半精度で6.2エクサフロップス(従来比7倍)、単精度で3.0エクサフロップス(従来比13倍)に向上させます。

ABCI 3.0の登場により、生成AIをはじめとした最先端AI技術の研究開発・評価・人材育成が加速することが期待されています。国内の産学官による生成AIの開発需要が急拡大する中、より高い計算能力の確保が急務となっていました。ABCI 3.0は、世界に伍する最先端AI技術の研究開発・応用実証に必要な計算資源を提供します。

最新の高性能・省電力GPUサーバーを766台導入

ABCI 3.0では、高性能で省電力の最新GPU「NVIDIA H200 SXM5」を1台あたり8基、766台計6128基搭載したGPUサーバー「計算ノード(H)」を導入します。これにより、半精度で6.2エクサフロップス、単精度で3.0エクサフロップス、倍精度で415ペタフロップスのピーク性能を実現します。

なお、H200 1基あたりの価格は約600万円と言われています。

大容量・高速オールフラッシュストレージシステムを搭載

ABCI 3.0には、物理容量75PBの大容量・高速ストレージシステムが搭載されます。QLC(クアッドレベルセル)の高密度フラッシュストレージを採用し、従来システムに比べてストレージ容量、理論読み書き性能ともに2倍以上に拡大します。これにより、大規模なデータ処理の性能向上と、データセンター面積の有効活用が期待できます。

使いやすい利用サービスを提供

ABCI 3.0は、産総研グループがこれまで培ってきたABCIの技術資産を生かして、利用者にとって使いやすい利用サービスを提供します。AIの開発がすぐに始められるソフトウェアスタックや、AI開発を容易にする「AI Hub」サービスを備えます。また、ウェブポータル「Open OnDemand」の導入により、ウェブブラウザからGUIベースで簡単に操作できる環境も提供します。

ABCI 3.0は、2024年10月から段階的に導入され、11月から一部システムの試験運用を開始し、12月までに従来システムからのリプレースを完了する予定です。その後、各種調整を経て2025年1月中旬までに一般提供を開始します。ABCI 3.0は、高度でより使いやすいAI開発環境を構築・提供するとともに、基盤モデル構築時に利用可能なデータ群の整備などを進めて、日本国内の生成AI開発能力の向上に寄与します。加えて、AI開発環境および計算インフラ構築ノウハウを国内クラウド事業者とも共有することで、計算インフラから生成AIのサービス提供に至る、幅広い産業の競争力強化に貢献することが期待されています。

まとめ

産総研のABCI 3.0は、最新のNVIDIA H200 GPUを6128基搭載し、半精度で6.2エクサフロップス、単精度で3.0エクサフロップスのピーク性能を実現します。大容量・高速ストレージシステムや使いやすい利用サービスも提供し、生成AIをはじめとした最先端AI技術の研究開発・評価・人材育成を加速します。ABCI 3.0は、2025年1月中旬までに一般提供を開始し、日本国内の生成AI開発能力の向上と、幅広い産業の競争力強化に貢献することが期待されています。

今日のおすすめ

今日のおすすめ

コメントを残す

コメントを入力してください
ここにあなたの名前を入力してください

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)