- Nvidiaが最新のGPU「Blackwell」を発表
- AIモデルを1兆パラメータで訓練可能
- 高性能化を達成した新型GPUメモリ HBM3E搭載
- AIスーパーコンピュータ「Project Ceiba」は400エクサフロップスの性能を予定
Nvidiaが、AI計画の核となるGPU「Blackwell」を発表しました。Blackwellは、1兆パラメータモデルの訓練が可能で、グラフィックス処理の向上が期待されます。
このチップは既存のH100やA100を凌ぐ性能を誇り、2080億個のトランジスタを搭載し、4ナノメートルプロセスで製造されたことにより大幅なパフォーマンスアップが見込まれます。
さらにGPUには、192GBのHBM3Eメモリが備えられ、AIデータセンターのスケールを100,000GPU以上に拡大することが目標です。AI計算性能は単一GPUで20ペタフロップスを実現します。
具体的な性能数値は未公開ですが、新たに採用されたFP4データ型を使用してこの数値が計測されたと推測されます。
Nvidiaは、新しいGPU「Blackwell」とGrace CPUを組み合わせたシステムも開発。GB200 SuperchipsやGB200 NVL72システムを含む様々な製品がこの年にクラウドプロバイダーに提供される予定です。
特にAIスーパーコンピュータProject Ceibaは、AWSとの共同で開発が進められ、400エクサフロップスを越えるAI性能が見込まれます。
また、AIエンタープライズ 5.0と称されるソフトウェアプラットフォームの更新も発表され、開発者向けの新ツールが追加されます。
えっと、このBlackwellって、何がすごいの? 1兆パラメータってどういう意味?
それに、なんでそんなに速くなるの?
新しいGPUはね、ものすごく計算が速いの。1兆パラメータっていうのは、AIが学習するときの情報量がすごく多いこと。それだけ多くのデータを扱えるから、AIはより賢くなれるのよ。速くなる理由は、新しい技術で小さくてもたくさんのトランジスタをチップに詰め込むことができて、それが早い計算を実現しているからなの。
えっと、このNvidiaのBlackwellというのは記録的な速さでAIモデルを学習できるGPUだよ。
1兆パラメータというのは、ものすごい量のデータを同時に処理できるってこと。これによりAIはかなり複雑なタスクもこなせるようになるんだ。
新しい技術でできた超小型のトランジスタがそれを実現可能にしていて、そのために処理速度が非常に速くなるんだよ。
それにこのGPUはHBM3Eメモリを使っていて、より多くのデータを高速でやり取りできる。
AIスーパーコンピュータProject Ceibaでは、これも使って400エクサフロップスという前代未聞の性能を目指しているんだ。
これらの技術はAI研究だけでなく、開発者の助けにもなる最新ツールの形で提供される予定だよ。