Bot de noticias de Gate, esta madrugada, AMD llevó a cabo la Conferencia Mundial de Desarrollo de IA 2025, donde presentó e introdujo sus últimos chips de IA y dispositivos de hardware en la nube.
El cofundador y CEO de OpenAI, Sam Altman, asistió a la conferencia como invitado especial y lanzó en conjunto con AMD los potentes chips de IA Instinct MI400 e Instinct MI350. Especialmente durante el proceso de desarrollo, OpenAI ha estado proporcionando retroalimentación técnica a AMD para ayudarles a optimizar sus GPU.
En la conferencia de prensa, cuando Sam Altman escuchó que el MI400 individual estaba equipado con 432G de memoria HBM4, también se sorprendió, exclamando que era imposible. En comparación con la generación anterior, el MI350 está equipado con 288GB de memoria HBM3E y un ancho de banda de memoria de hasta 8TB/s, lo que mejora la capacidad de cálculo de IA en 4 veces y el rendimiento de inferencia en 35 veces.
AMD declaró que, debido a que el consumo de energía del chip es inferior al de la competencia, el MI355X puede proporcionar un 40% más de tokens por dólar que los chips de Nvidia.
Fuente de la noticia: Jinshi
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
AMD y OpenAI lanzan conjuntamente un potente chip de IA, mejorando la inferencia en 35 veces
Bot de noticias de Gate, esta madrugada, AMD llevó a cabo la Conferencia Mundial de Desarrollo de IA 2025, donde presentó e introdujo sus últimos chips de IA y dispositivos de hardware en la nube.
El cofundador y CEO de OpenAI, Sam Altman, asistió a la conferencia como invitado especial y lanzó en conjunto con AMD los potentes chips de IA Instinct MI400 e Instinct MI350. Especialmente durante el proceso de desarrollo, OpenAI ha estado proporcionando retroalimentación técnica a AMD para ayudarles a optimizar sus GPU.
En la conferencia de prensa, cuando Sam Altman escuchó que el MI400 individual estaba equipado con 432G de memoria HBM4, también se sorprendió, exclamando que era imposible. En comparación con la generación anterior, el MI350 está equipado con 288GB de memoria HBM3E y un ancho de banda de memoria de hasta 8TB/s, lo que mejora la capacidad de cálculo de IA en 4 veces y el rendimiento de inferencia en 35 veces.
AMD declaró que, debido a que el consumo de energía del chip es inferior al de la competencia, el MI355X puede proporcionar un 40% más de tokens por dólar que los chips de Nvidia.
Fuente de la noticia: Jinshi