Nvidia anunció en el evento virtual GTC 2022, el lanzamiento de la nueva tarjeta gráfica H100 Tensor Core. Esta sería la GPU más potente que ha desarrollado la compañía hasta ahora, la cual se basa en la nueva arquitectura Hopper y está dotada de más de 80.000 millones de transistores.
En su más reciente evento virtual GTC 2022, Nvidia anunció el lanzamiento de la nueva tarjeta gráfica H100 Tensor Core, la cual sería la más potente que la compañía haya fabricado. Esta tarjeta gráfica se basa en la nueva arquitectura Hopper y está dotada de más de 80.000 millones de transistores. Además de contar con nuevas características como un motor transformador y una interconexión NVLink más escalable, lo que le permite alimentar modelos de inteligencia artificial más grandes, sistemas de recomendación y otros tipos de cargas de trabajo.
NVIDIA habría anunciado su nuevo chip en abril de este año, destacando que su potencia era tal, que sólo con 20 de ellos se podría sostener todo el tráfico de Internet del mundo, de manera literal. Esto permitirá que la H100 sea ideal para las aplicaciones de IA más avanzadas, incluida la realización de inferencias sobre los datos en tiempo real.
Las GPU H100 son las primeras que admiten PCIe Gen5 y también utilizan HBM3, lo que significa que tienen más de 3 terabytes de ancho de banda de memoria, pese a todo el motor Transformer es el que probablemente interesará a muchas empresas. Este producto, es capaz de acelerar los modelos de procesamiento del lenguaje natural basados en Transformer hasta seis veces más de lo que podía hacer la GPU A100 de la generación anterior según NVIDIA.
La tecnología multiinstancia segura de segunda generación que integra la GPU H100, permite particionar el chip en siete instancias más pequeñas y totalmente aisladas para manejar varias cargas de trabajo simultáneamente. Además cuenta con otras funciones, como la compatibilidad con la computación confidencial, lo que significa la encriptación de los datos mientras se procesan, y las nuevas instrucciones DPX para impulsar la programación dinámica acelerada.
Es una técnica que se utiliza habitualmente en muchos algoritmos de optimización, procesamiento de datos y ómica. La GPU H100 puede hacerlo 40 veces más rápido que las unidades centrales de procesamiento más avanzadas de NVIDIA.
Jensen Huang, Fundador y CEO de NVIDIA dijo que “Se ve a Hopper como el nuevo motor de las fábricas de IA, impulsando avances significativos en la IA basada en el lenguaje, la robótica, la sanidad y las ciencias de la vida”. Además añadió que “El motor Transformer de Hopper aumenta el rendimiento hasta un orden de magnitud, poniendo la IA y la HPC a gran escala al alcance de empresas e investigadores”.
La compañía tiene establecido que todos los nuevos servidores de uso general equipados con el NVIDIA H100, deben ser vendidos con una licencia de cinco años para NVIDIA AI Enterprise. Este paquete de software se utiliza para optimizar el desarrollo y la implantación de modelos de IA y proporciona acceso a marcos y herramientas de IA para la creación de chatbots de IA, ingenieros de recomendación, IA de visión artificial y mucho más.
La compañía aseguró que las GPU H100 contarán con disponibilidad desde el próximo mes en los últimos servidores PowerEdge de Dell Technologies Inc., a través del servicio NVIDIA LaunchPad que proporciona laboratorios prácticos y gratuitos para que las empresas se inicien en el uso del hardware. Como alternativa, los clientes pueden solicitar los nuevos sistemas NVIDIA DGX H100, que vienen con ocho GPU H100 y proporcionan 32 petaflops de rendimiento con precisión FP8.
Cada uno de los sistemas DGX, cuenta con las pilas de software Base Command y AI Enterprise de NVIDIA. Permitiendo implementaciones que van desde un solo nodo hasta un NVIDIA DGX SuperPOD completo para cargas de trabajo de IA más avanzadas, como los modelos de lenguaje de gran tamaño.
Los nuevos GPU H100 contarán con disponibilidad en una variedad de sistemas de servidores de terceros vendidos por empresas como Dell, Atos SE, Cisco Systems Inc, Fujitsu Ltd., Giga-Byte Technology Co. Ltd., Hewlett Packard Enterprise Co., Lenovo Ltd. y Super Micro Computer Inc. en las próximas semanas.
Las principales instituciones de educación superior e investigación del mundo contarán con la nueva NVIDIA H100 para alimentar sus avanzados superordenadores, como el Centro de Supercomputación de Barcelona, el Laboratorio Nacional de Los Álamos, el Centro Nacional de Supercomputación de Suiza, el Centro de Computación Avanzada de Texas y la Universidad de Tsukuba.
Además, Nvidia recalcó que los servicios de Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure estarán entre los primeros en desplegar instancias basadas en el H100 a principios del año que viene.
Mediante el anuncio de Huangs, la compañía demuestra el deseo de convertirse en la plataforma para todas las operaciones empresariales de IA mediante su arquitectura Hopper. La cual no solo contará con disponibilidad en las principales plataformas en la nube, sino también en las plataformas locales, ofreciendo de esta manera a las empresas la opción de desplegar aplicaciones de nueva generación impulsadas por la IA prácticamente en cualquier lugar.
NVIDIA señala que muchos de los principales marcos de trabajo de aprendizaje profundo y modelos de IA del mundo están siendo optimizados para las GPU H100, entre ellos el propio marco de trabajo NeMo Megatron de la compañía, además de DeepSpeed de Microsoft Corp. y JAX, PyTorch, TensorFlow y XLA de Google LLC.