Nvidiaは、ロボティクス分野の汎用大型モデル「GR00T」と次世代チップアーキテクチャ「Blackwell」を初披露した

Odaily Planet Daily News Nvidia の創設者である Jensen Huang 氏は、米国サンノゼで開催された GTC カンファレンスで開会の挨拶を行いました。 このプレゼンテーションでは、NVIDIAが次世代チップアーキテクチャであるBlackwellを発表しました。 報道によると、Blackwell GPUは数学者のDavid Harold Blackwellにちなんで名付けられ、NVIDIAが以前に発売したHopperアーキテクチャにも従っています。 Blackwell GPU には 2,080 億個のトランジスタが搭載されており、最大 10 兆個のパラメーターを持つ AI モデルをサポートできます。 このアーキテクチャは、チップ自体に加えて、第 5 世代の NVLink 高速相互接続と第 2 世代の Transformer エンジンも使用しており、多くの面で包括的にアップグレードされています。 Huang氏によると、この新しいチップは2024年後半に発売される予定です。 フアン氏によると、エヌビディアは将来、Blackwellを利用して世界中のAI企業に拡大し、世界中のすべてのOEM、リージョナルクラウド、国家主権AI、通信会社と契約を締結する予定だという。 現在、Amazon、Dell、Google、Meta、Microsoft、OpenAI、TeslaはすべてBlackwell GPUの使用を計画しています。 伝説的なB100は以前に登場しず、代わりにNvidiaがGrace CPUと2セットのBlackwell GPUで構成されるスーパーチップであるGB200をリリースしたことは注目に値します。 Huang氏によると、GB200はH100の6倍の計算能力を持ち、対応するマルチモーダル特定領域の計算能力は30倍に達する可能性があるという。 さらに、Nvidiaは、36個のGrace CPUと72個のBlackwell GPUで構成されるサーバーであるGB200 NVL72も発表しました。 今回、NvidiaはGR00Tと呼ばれるロボティクス分野向けの一般的な基本大型モデルを発売します。 さらに、NVIDIAは、パフォーマンス、消費電力、サイズが特別に最適化されたロボット工学用の新しいコンピューターであるThorを発表しました。 また、NVIDIA は新しい AI 推論サーバーである NIM (NVIDIA INFERENCE MICROSERVICE) を導入し、誰でもこの形式で AI モデルとアプリケーションをカスタマイズできるようにしました。

原文表示
内容は参考用であり、勧誘やオファーではありません。 投資、税務、または法律に関するアドバイスは提供されません。 リスク開示の詳細については、免責事項 を参照してください。
  • 報酬
  • 1
  • 共有
コメント
0/400
KudatohodYvip
· 2024-03-19 06:52
букав много а толку мало
返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)