世界経済評論IMPACT(世界経済評論インパクト)

No.3369
世界経済評論IMPACT No.3369

“AI 時代の寵児”のNVIDIA GTC2024:ジェンスン・フアンCEOは何を語ったか

朝元照雄

(九州産業大学 名誉教授)

2024.04.08

 NVIDIAの開発者会議「GTC2024」が3月18日,カリフォルニア州サンノゼで開催された。

 今年のカンファレンスの最大の目玉は,世界最強の半導体Blackwellを発表したことである。主な内容は①AIによる新しい産業革命,②Blackwell プラットフォーム,③Nvidia Inference Microservices(NIMs),④NEMOとクラウドから端末のAI配置とデジタルツインの応用(AI工場),⑤Nvidia Jetsonロボットプラットフォームによって構成された人型ロボット時代の到来などだ(紙幅の関係でその一部のみ紹介する)。

世界最強のBlackwell GB200

 ジェンスン・フアンCEOは彼の定番スタイル(黒の革ジャン,黒のシャツに黒のズボンと黒のスニーカー)で舞台に上がり,この最新フレームワークBlackwellのB200を手に取り,会場を埋め尽くした参加者に,「Blackwellは単なる半導体チップではなく,最も新しいフレームワークである」と熱く語った。

 BlackwellのGPU(画像演算処理装置)は,TSMC(台湾積体電路製造)のN4Pプロセスによって製造される。「N4P」とは,4nm(ナノメートル)プロセスで製造される高性能(performance)な半導体チップの略称であり,顧客からの要請に基づきオーダーメイドで開発された。一方,「B200」は,2つB100のチップにHBM(High Bandwidth Memory/広域帯メモリー)を用いた「チップレット(chiplet)」構造で実装したものである。先端封止技術により,2つのチップを組み合わせているのでMCP(マルチ・チップ・パッケージ)に分類される。さらに,B100の2つのGPUと1つのGrace CPU(中央演算処理装置)をMCPによる先端封止技術で組み合わせると,世界最強の「GB200」チップが誕生する。「GB200」の「G」とはGrace CPUを指す。

 1つのB100 GPUチップには1040億個のトランジスターが搭載され,2つのB100による「B200」には2080億個のトランジスターが搭載される。既存のHopper仕組みのH100と比べると2.5倍も機能が優れていて,まさに,「スーパーチップ」と言える。

 機能的に言えば,B200のChatGPTの反応時間がH100と比べると5倍早い。特に注目したいのは,データーセンターの電力消費を大きく低減することができることだ。例えば,GPT-MOEで1.8兆のパラメーターをトレーニングする場合,既存のHopper仕組みのH100は3カ月の期間と8000個のGPUが必要で,15MW(メガワット)の電力が消費される。仮にデーターセンターでBlackwell GB200 NVL72を使用するとした場合,2000個のGPUと3カ月の期間が必要であるが,僅か4MWの電力消費に過ぎない。当然,運営コストは既存機種より25倍も安価である。確かに販売価格は高くなったが,機能はますます強化される。

 ちなみに,「Blackwell」とは,米国の黒人数学者・統計学者であり,ゲーム理論を提唱した科学アカデミー会員のデビット・ハロルド・ブラックウェル(David Harold Blackwell,1919年4月24日~2010年7月8日)を顕彰し,氏の苗字を製品の型式にしたものである。また,「Hopper」とは,プログラミング言語のCOBOLを開発した米国女性のグレース・ホッパー(Grace Hopper,1906年12月9日~2019年1月1日)の名前を製品の型式に命名したものである。

 ジェンスンCEOはデーターセンターの需要で,1年間の市場規模は約2000億ドルと見ている。仮に既存のCPUでデーターセンターを構築する場合,ケーブルの数や,電力消費が多いことから,Blackwellは多くの市場を獲得できると見ている。

 このBlackwellの主要顧客は,Amazon(AWSクラウド),Google CloudなどのCSP(クラウド・サービス・プロバイダー),アプライド・デジタル(Applies Digital),IBM Cloud,Lambdaなどのクラウドパートナー企業,Oracleアメリカ,Oracleイギリス,Oracle EU Sovereign Cloudなど「主権型AI」(外部ソースに依存せずに革新する国家の能力である国産 AIの開発)クラウド・サービスである。

Nvidia CorrDiffによる天気予報解析

 「NVIDIA CorrDiff: Resolving Extreme Weather Events With Generative AI」のビデオで,2021年台湾に襲来した台風に関する天気予報の実例を紹介した。

 衛星画像による既存の天気予報モデルの解析度では25キロしか表示できないが,この「Nvidia CorrDiff」と「デジタルツイン」による生成AIを使用すると2キロまで解析・表示ができ,台風の上陸位置とその影響を予測する精度を向上させることができる。さらに「Nvidia CorrDiff」生成AIの演算機能は既存の予測よりも1000倍も向上し,電力消費は3000倍も節約することができる。この「Nvidia CorrDiff」と「デジタルツイン」による生成AIは既に台湾で使われ始めている。

NIMsの応用

 Nividiaの事前トレーニング済AIモデル(コンピュータビジョン,音声認識,ロボティクス)である「Nvidia Inference Microservices(NIMs)」をCUDA(クーダ/Compute Unified Device Architecture,GPU向けの汎用並列コンピューティングアーキテクチャ・プログラミングモデル)で実行し,推論マイクロサービスによって最適化モデル(Optimized Model)を利用する。

 医療映像・人体(臨床検査),ゲノム解析(NVIDIA Clara Parabricks),バイオ情報(DNA,RNA基因検査),創薬のための事前トレーニング済モデル(Bio NeMo)などが挙医療保険分野での具体的な応用例として挙げられる。

 また,工場建設の最適化配置をクラウドから端末までAIを使って配置し,AI(DGXサーバー),デジタルツイン(OUXサーバー),ロボットプラットフォーム(AGX)を使用する。AI(DGXサーバー),デジタルツイン(OUXサーバー),ロボットプラットフォーム(AGX)を駆使し,クラウドから端末までAIで工場建設を最適化配置する。

Project GR00T

 ネット上では,NvidiaがAIロボティクス・ベンチャーの「Figure1」に投資したことが話題になった。発表したモデルは「Project GR00T」と呼ばれる。「GR」とは「General Robotics(汎用基盤型ロボティクス)」の略語である。人型ロボットはソフトウエアとハードウエアによって構成され,ハードウエアの部分は「Jetsor Thor」はBlackwallの仕組み下のSoC(システム・オン・ア・チップ)を使い,人型ロボットに搭載される。他方,ソフトウエアのIsaacはロボットに人間の動作を学習させることができる。

 会議の最後にディズニーの「オレンジ」と「グリーン」の2つの可愛らしい小さなロボットが登場し,ジェンスンCEOは「今は食事の時間でなく,後でおやつを食べに行こう」と呼び掛け,会議はユーモラスな雰囲気に包まれ終了した。

[参考文献]
(URL:http://www.world-economic-review.jp/impact/article3369.html)

関連記事

朝元照雄

最新のコラム