O fundador do Odaily Planet Daily News Nvidia, Jensen Huang, fez um discurso de abertura na conferência GTC realizada em San Jose, EUA. Nesta apresentação, a NVIDIA revelou sua arquitetura de chips de próxima geração, Blackwell. De acordo com relatórios, a GPU Blackwell é nomeada em homenagem ao matemático David Harold Blackwell, e também segue a arquitetura Hopper lançada anteriormente pela NVIDIA. Com 208 bilhões de transistores em uma GPU Blackwell, ele pode suportar modelos de IA com até 10 trilhões de parâmetros. Além do chip em si, esta arquitetura também usa a interconexão de alta velocidade NVLink de quinta geração e o motor Transformer de segunda geração, que é atualizado de forma abrangente em muitos aspetos. De acordo com Huang, o novo chip estará disponível ainda em 2024. Huang disse que, no futuro, a Nvidia planeja usar a Blackwell para se expandir para empresas de IA em todo o mundo, assinando contratos com todos os OEMs, nuvens regionais, IA soberana nacional e empresas de telecomunicações em todo o mundo. Atualmente, Amazon, Dell, Google, Meta, Microsoft, OpenAI e Tesla planejam usar GPUs Blackwell. Vale a pena notar que o lendário B100 não apareceu antes, e a Nvidia em vez disso lançou o GB200, um superchip composto por uma CPU Grace e dois conjuntos de GPUs Blackwell. De acordo com Huang, o GB200 tem seis vezes o poder de computação do H100, e o poder de computação do domínio específico multimodal correspondente pode chegar a 30 vezes. Além disso, a Nvidia também anunciou o GB200 NVL72, um servidor composto por 36 CPUs Grace e 72 GPUs Blackwell. Desta vez, a Nvidia lançará um modelo básico geral para o campo da robótica, chamado GR00T. Além disso, a NVIDIA introduziu um novo computador para robótica, o Thor, que foi especificamente otimizado para desempenho, consumo de energia e tamanho. A NVIDIA TAMBÉM INTRODUZIU UM NOVO SERVIDOR DE INFERÊNCIA DE IA, O NIM (NVIDIA INFERENCE MICROSERVICE), QUE PERMITE A QUALQUER PESSOA PERSONALIZAR MODELOS E APLICATIVOS DE IA NESTE FORMULÁRIO.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
A Nvidia revelou o GR00T, um modelo grande de uso geral no campo da robótica, e a arquitetura de chips de próxima geração Blackwell
O fundador do Odaily Planet Daily News Nvidia, Jensen Huang, fez um discurso de abertura na conferência GTC realizada em San Jose, EUA. Nesta apresentação, a NVIDIA revelou sua arquitetura de chips de próxima geração, Blackwell. De acordo com relatórios, a GPU Blackwell é nomeada em homenagem ao matemático David Harold Blackwell, e também segue a arquitetura Hopper lançada anteriormente pela NVIDIA. Com 208 bilhões de transistores em uma GPU Blackwell, ele pode suportar modelos de IA com até 10 trilhões de parâmetros. Além do chip em si, esta arquitetura também usa a interconexão de alta velocidade NVLink de quinta geração e o motor Transformer de segunda geração, que é atualizado de forma abrangente em muitos aspetos. De acordo com Huang, o novo chip estará disponível ainda em 2024. Huang disse que, no futuro, a Nvidia planeja usar a Blackwell para se expandir para empresas de IA em todo o mundo, assinando contratos com todos os OEMs, nuvens regionais, IA soberana nacional e empresas de telecomunicações em todo o mundo. Atualmente, Amazon, Dell, Google, Meta, Microsoft, OpenAI e Tesla planejam usar GPUs Blackwell. Vale a pena notar que o lendário B100 não apareceu antes, e a Nvidia em vez disso lançou o GB200, um superchip composto por uma CPU Grace e dois conjuntos de GPUs Blackwell. De acordo com Huang, o GB200 tem seis vezes o poder de computação do H100, e o poder de computação do domínio específico multimodal correspondente pode chegar a 30 vezes. Além disso, a Nvidia também anunciou o GB200 NVL72, um servidor composto por 36 CPUs Grace e 72 GPUs Blackwell. Desta vez, a Nvidia lançará um modelo básico geral para o campo da robótica, chamado GR00T. Além disso, a NVIDIA introduziu um novo computador para robótica, o Thor, que foi especificamente otimizado para desempenho, consumo de energia e tamanho. A NVIDIA TAMBÉM INTRODUZIU UM NOVO SERVIDOR DE INFERÊNCIA DE IA, O NIM (NVIDIA INFERENCE MICROSERVICE), QUE PERMITE A QUALQUER PESSOA PERSONALIZAR MODELOS E APLICATIVOS DE IA NESTE FORMULÁRIO.