NVIDIA (NASDAQ:NVDA) continuó demostrando el lunes su dominio en el espacio de la inteligencia artificial al presentar su último sistema de IA, el HGX H200 impulsado por la GPU H200.
La nueva plataforma HGX H200 incorpora la GPU NVIDIA H200 Tensor Core con memoria avanzada para manejar cantidades masivas de datos destinados a cargas de trabajo de IA generativa y cálculo de alto rendimiento. La nueva HGX H200 se basa en la arquitectura Hopper de NVIDIA.
La H200 es la primera GPU que ofrece HBM3e, una memoria más rápida y de mayor capacidad para impulsar la aceleración de la IA generativa y los modelos de lenguaje de gran tamaño, al tiempo que avanza en la computación científica para cargas de trabajo de HPC (computación de alto rendimiento, por sus siglas en inglés). Con HBM3e, la NVIDIA H200 ofrece 141 GB de memoria a 4.8 terabytes por segundo, casi el doble de capacidad y 2.4 veces más ancho de banda que su predecesora, la NVIDIA A100.
"Ian Buck, vicepresidente de hiperescala y HPC en NVIDIA, añade: "Para crear inteligencia con aplicaciones de IA generativa y HPC, es necesario procesar grandes cantidades de datos a alta velocidad utilizando una memoria de GPU grande y rápida. "Con NVIDIA H200, la plataforma de supercomputación de IA integral líder del sector acaba de volverse más rápida para resolver algunos de los retos más importantes del mundo”.
NVIDIA espera empezar a comercializar los sistemas H200 en el segundo trimestre de 2024.