Pendiri Odaily Planet Daily News Nvidia Jensen Huang menyampaikan pidato pembukaan pada konferensi GTC yang diadakan di San Jose, AS. Dalam presentasi ini, NVIDIA meluncurkan arsitektur chip generasi berikutnya, Blackwell. Menurut laporan, GPU Blackwell dinamai matematikawan David Harold Blackwell, dan juga mengikuti arsitektur Hopper yang sebelumnya diluncurkan oleh NVIDIA. Dengan 208 miliar transistor dalam GPU Blackwell, ia dapat mendukung model AI dengan hingga 10 triliun parameter. Selain chip itu sendiri, arsitektur ini juga menggunakan interkoneksi berkecepatan tinggi NVLink generasi kelima dan mesin Transformer generasi kedua, yang ditingkatkan secara komprehensif dalam banyak aspek. Menurut Huang, chip baru akan tersedia nanti pada tahun 2024. Huang mengatakan bahwa di masa depan, Nvidia berencana untuk menggunakan Blackwell untuk berekspansi ke perusahaan AI di seluruh dunia, menandatangani kontrak dengan semua OEM, cloud regional, AI berdaulat nasional, dan perusahaan telekomunikasi di seluruh dunia. Saat ini, Amazon, Dell, Google, Meta, Microsoft, OpenAI, dan Tesla semuanya berencana untuk menggunakan GPU Blackwell. Perlu dicatat bahwa B100 yang legendaris tidak muncul sebelumnya, dan Nvidia malah merilis GB200, superchip yang terdiri dari CPU Grace dan dua set GPU Blackwell. Menurut Huang, GB200 memiliki enam kali daya komputasi H100, dan daya komputasi domain spesifik multimodal yang sesuai dapat mencapai 30 kali lipat. Selain itu, Nvidia juga mengumumkan GB200 NVL72, server yang terdiri dari 36 CPU Grace dan 72 GPU Blackwell. Kali ini, Nvidia akan meluncurkan model besar dasar umum untuk bidang robotika, yang disebut GR00T. Selain itu, NVIDIA telah memperkenalkan komputer baru untuk robotika, Thor, yang telah dioptimalkan secara khusus untuk kinerja, konsumsi daya, dan ukuran. NVIDIA JUGA MEMPERKENALKAN SERVER INFERENSI AI BARU, NIM (NVIDIA INFERENCE MICROSERVICE), YANG MEMUNGKINKAN SIAPA SAJA UNTUK MENYESUAIKAN MODEL DAN APLIKASI AI DALAM FORMULIR INI.
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Nvidia meluncurkan GR00T, model besar serba guna di bidang robotika, dan arsitektur chip generasi berikutnya Blackwell
Pendiri Odaily Planet Daily News Nvidia Jensen Huang menyampaikan pidato pembukaan pada konferensi GTC yang diadakan di San Jose, AS. Dalam presentasi ini, NVIDIA meluncurkan arsitektur chip generasi berikutnya, Blackwell. Menurut laporan, GPU Blackwell dinamai matematikawan David Harold Blackwell, dan juga mengikuti arsitektur Hopper yang sebelumnya diluncurkan oleh NVIDIA. Dengan 208 miliar transistor dalam GPU Blackwell, ia dapat mendukung model AI dengan hingga 10 triliun parameter. Selain chip itu sendiri, arsitektur ini juga menggunakan interkoneksi berkecepatan tinggi NVLink generasi kelima dan mesin Transformer generasi kedua, yang ditingkatkan secara komprehensif dalam banyak aspek. Menurut Huang, chip baru akan tersedia nanti pada tahun 2024. Huang mengatakan bahwa di masa depan, Nvidia berencana untuk menggunakan Blackwell untuk berekspansi ke perusahaan AI di seluruh dunia, menandatangani kontrak dengan semua OEM, cloud regional, AI berdaulat nasional, dan perusahaan telekomunikasi di seluruh dunia. Saat ini, Amazon, Dell, Google, Meta, Microsoft, OpenAI, dan Tesla semuanya berencana untuk menggunakan GPU Blackwell. Perlu dicatat bahwa B100 yang legendaris tidak muncul sebelumnya, dan Nvidia malah merilis GB200, superchip yang terdiri dari CPU Grace dan dua set GPU Blackwell. Menurut Huang, GB200 memiliki enam kali daya komputasi H100, dan daya komputasi domain spesifik multimodal yang sesuai dapat mencapai 30 kali lipat. Selain itu, Nvidia juga mengumumkan GB200 NVL72, server yang terdiri dari 36 CPU Grace dan 72 GPU Blackwell. Kali ini, Nvidia akan meluncurkan model besar dasar umum untuk bidang robotika, yang disebut GR00T. Selain itu, NVIDIA telah memperkenalkan komputer baru untuk robotika, Thor, yang telah dioptimalkan secara khusus untuk kinerja, konsumsi daya, dan ukuran. NVIDIA JUGA MEMPERKENALKAN SERVER INFERENSI AI BARU, NIM (NVIDIA INFERENCE MICROSERVICE), YANG MEMUNGKINKAN SIAPA SAJA UNTUK MENYESUAIKAN MODEL DAN APLIKASI AI DALAM FORMULIR INI.