El CEO de Nvidia introduce la infraestructura requerida para las fábricas de IA del futuro

dplnews jensen huang nvidia mc18325

Jensen Huang, CEO de Nvidia, presentó su visión respecto al impacto y los retos del desarrollo de la Inteligencia Artificial (IA) en las industrias, al señalar que todas ellas requerirán ahora de dos fábricas, una para sus productos y una más para IA. Estas nuevas fábricas necesitarán nueva infraestructura que les ayude a realizar cargas de entrenamiento e inferencia de IA a escalas sin precedentes.

Durante su discurso en la GTC, Huang destacó los “cambios fundamentales” de los últimos dos a tres años que han llevado a la aparición de Agentic AI, que básicamente significa que ahora se tiene una agencia de IA que puede percibir el contexto y razonar información multimodal para determinar una respuesta o resolver un problema, y a partir de ello, tomar acción. La siguiente fase, según Huang, es la robótica, capaz de entender el mundo físico.

También lee: Agentes de IA en auge: LG y Cisco avanzan en modelos y soluciones

A lo largo de la presentación, Huang resaltó el proceso de la generación de tokens, unidades de datos que en la IA permiten la generación de cualquier clase de contenido: texto, video, imágenes, etcétera. Conforme se incrementan los casos de uso de la IA, y por tanto, el procesamiento del número de tokens, existe un reto tanto en la capacidad de cómputo utilizada para la generación de contenido, como en las propias redes que hacen llegar ese contenido a los usuarios. Estos límites de cómputo y ancho de banda imponen además un límite en la generación de ingresos para las empresas de IA.

En ese sentido, el directivo explicó los retos que se deben resolver para el desarrollo de IA, empezando por el problema de datos, para aprender y obtener conocimiento; el segundo, el problema del entrenamiento, en el que ya no exista un humano en el ciclo y permita el aprendizaje a gran escala; y tercero, el problema de cómo escalar, para que un algoritmo con más recursos sea más inteligente.

Huang advirtió respecto al problema del cómputo, ya que este sería hasta 100 veces más de lo que se pensaba hace un año ante el surgimiento de las IAs con capacidad de razonamiento. Nvidia se ha beneficiado de esta mayor demanda, al revelar que en lo que va de 2025 los cuatro principales proveedores de Nube basados en Estados Unidos han adquirido más de 3.6 millones de GPUs Blackwell, superando en tres veces lo registrado con Hopper.

AD 4nXfppsv0SuguwMDTiOD85RUmdaX9EfMzTu5SZMSpxEodtziH 429zhOWyWRgy1HGm6b8uYSbdGmhT H9t0SkFW 8sXlai8GQpOvy1XOdw 3M

Además, mantiene su predicción de que la construcción de centros de datos en el mundo alcanzará el billón de dólares en 2028. Afirmó que lo anterior se acelerará, conforme la industria llega al punto de inflexión, representado por un cambio de plataforma, desde el software escrito a mano en computadoras de uso general, hacia software generado por Machine Learning corriendo en aceleradores.

IA embebida en las industrias

Para atender estas nuevas demandas de cómputo, Nvidia hizo una serie de anuncios enfocados en impulsar lo que Huang llama Fábricas de IA, incluida una versión mejorada de Blackwell, software para facilitar el diseño y optimización de centros de datos para IA, además de soluciones de redes para atender las demandas de ancho de banda, tanto en centros de datos como en las redes.

Entre los anuncios, destaca la ampliación de las librerías bajo CUDA-X, que buscarán facilitar la adopción de IA para múltiples industrias, ya sea la generación de nuevas proteínas o mejorar un proceso de manufactura. Entre estas librerías, se encuentra Aerial Sionna para convertir una GPU en un dispositivo de radio, lo que impulsará la AI-RAN. Huang espera que esta nueva arquitectura permita resolver los límites en la disponibilidad de espectro y ser un componente clave del 6G.

En el sector de telecomunicaciones, Nvidia anunció también el desarrollo de software para redes de radio, que permitirán acercar la IA al Edge, en colaboración con Cisco, T-Mobile y ODC. Esta asociación buscará “infusionar” la IA en las redes para mejorar las condiciones de operación de las radios Massive MIMO que, según Huang, podrán trabajar como “un gran robot inteligente”.

En el sector automotriz, Huang reveló también que GM utilizará hardware y software producido por Nvidia tanto para sus plantas de ensamblaje como para mejorar los sistemas de asistencia y seguridad en los propios vehículos.

Te puede interesar: La Inteligencia Artificial será el sistema nervioso de las redes y las infraestructuras digitales

El propio Nvidia será también parte de la transición a IA, ya que el directivo indicó que para finales de año, todos los ingenieros de la compañía contarán con la ayuda de la IA, lo que sentará un precedente para su adopción en todo el sector. Para apoyar esta transición, Nvidia presentó nuevos productos de estaciones de trabajo y sistemas de cómputo empresariales, entre los que se incluye la estación DGX, disponible a través de varios fabricantes de equipos como Dell y ASUS.

Adicionalmente, indicó que no sólo se requiere de mayor capacidad de cómputo, sino también de mejores sistemas de almacenamiento. En línea con la evolución de la IA que trata sobre mayor capacidad de razonamiento y acceso a conocimiento, Huang habló de nuevos sistemas de almacenamiento acelerados por GPU que no se limiten a obtener datos, sino a dar respuestas y soluciones. Dell, HPE, IBM, NetApp son algunos de los fabricantes que estarán desarrollando estas nuevas plataformas.

Fábricas de IA a mayor escala

Como parte de los esfuerzos de Nvidia para manejar el aumento de generación de tokens que requieren los modelos de IA con capacidad de razonamiento, Huang destacó los avances del sistema Blackwell, ahora con NVLink 72, que permite la interconexión de 72 GPUs y cuenta con hasta 130 billones de transistores.

Como parte de la evolución del sistema, Nvidia introdujo también Blackwell Ultra, que incluye NVIDIA GB300 NVL72 y el sistema NVIDIA HGX B300 NVL16. Esta nueva plataforma promete un rendimiento de IA 1.5 veces superior al de GB200 NVL72, además de multiplicar por 50 las oportunidades de ingresos de Blackwell para las fábricas de IA, en comparación con las construidas con Hopper. La plataforma está compuesta por 72 GPUs Blackwell y 36 Nvidia Grace con arquitectura ARM, que estará disponible hacia la segunda mitad del año.

AD 4nXeIY1c58Z5WFUArHKDqOJUxWVGqsiwtl7DhglhsfOncrSm W9XtMKXdhtiJFQlWup6ZMoa7gsbpiPs8LgCN4Lcx9Xq3jgzl7IatLRSkiCS
AD 4nXeIY1c58Z5WFUArHKDqOJUxWVGqsiwtl7DhglhsfOncrSm W9XtMKXdhtiJFQlWup6ZMoa7gsbpiPs8LgCN4Lcx9Xq3jgzl7IatLRSkiCS

En conjunto con una mayor capacidad de cómputo, Huang resaltó también la importancia de las redes avanzadas de escalabilidad horizontal que permitan reducir la latencia y la fluctuación. Para ello, anunció Spectrum-X Ethernet y NVIDIA Quantum-X800 InfiniBand, que en conjunto con Blackwell Ultra ofrecen 800 Gbps de rendimiento de datos disponibles para cada GPU del sistema. Esto ofrece las mejores capacidades de acceso directo a memoria remota para permitir que las fábricas de IA y los centros de datos en la Nube manejen modelos de razonamiento de IA sin cuellos de botella.

AD 4nXf2LlYstSBbJEDwO7CUwzpfgUkuCTeI99adt4yeV9 63UYvOg68 MKBORa63ws7Omz9QtjUV36UPW8Jmu2gA kBJmJv hH3i8qx zFQAx
AD 4nXf2LlYstSBbJEDwO7CUwzpfgUkuCTeI99adt4yeV9 63UYvOg68 MKBORa63ws7Omz9QtjUV36UPW8Jmu2gA kBJmJv hH3i8qx zFQAx

La compañía también desveló sus planes para futuros desarrollos, incluido el sistema Vera Rubin con capacidad NVLink 144, previsto para la segunda mitad de 2026. En 2027, estará listo también Rubin Ultra, que logrará un rendimiento de 15 veces más Exaflops.

Adicionalmente, para gestionar estos sistemas avanzados, Nvidia ha anunciado Dynamo, un sistema operativo de código abierto para fábricas de IA, desarrollado en colaboración con socios como Azure, Perplexity y Cohere.

Este nuevo software está diseñado para maximizar la generación de ingresos para las fábricas de IA que despliegan modelos de IA de razonamiento. La solución orquesta y acelera la comunicación de inferencia a través de miles de GPU, y utiliza el servicio desagregado para separar las fases de procesamiento y generación de los grandes modelos de lenguaje (LLM) en diferentes GPU. Esto permite que cada fase se optimice de forma independiente para sus necesidades específicas y garantiza la máxima utilización de los recursos de la GPU.

Un aspecto clave es la eficiencia y sostenibilidad de la infraestructura de IA. Dado que se espera que las futuras fábricas de IA alcancen escalas de gigavatios, Nvidia presentó Omniverse Blueprint para el diseño y las operaciones de fábricas de IA. Esta plataforma permite la simulación y optimización exhaustivas de los sistemas de alimentación, refrigeración y redes antes de que comience la construcción, lo que puede ahorrar millones en costes operativos.

Adicionar aos favoritos o Link permanente.