Jensen Huang sabe hacer un show. Pero lo que ocurrió el 16 de marzo de 2026 en el SAP Center de San José no fue simplemente otro keynote espectacular. GTC 2026 marcó un giro de énfasis: si antes Nvidia mostraba cómo expandirse hacia nuevos mercados, esta vez demostró cómo expandirse dentro de esos mercados, especialmente como actor central en todo el ecosistema de la IA. Moor Insights & Strategy Y lo respaldó con un número que dejó sin palabras a más de 30,000 asistentes de 190 países.
De 500,000 millones a 1 billón: la apuesta que nadie esperaba tan pronto
Apenas un año atrás, Nvidia había proyectado 500,000 millones de dólares en demanda para sus chips Blackwell y los próximos Rubin a través de 2026. En el keynote, Huang lo dejó caer con su habitual flair dramático: “Ahora mismo, donde estoy parado — pocos meses después de GTC DC, un año después del último GTC — veo a través de 2027, al menos 1 billón de dólares.” TechCrunch
Y por si eso fuera poco, agregó que era “seguro que la demanda de cómputo será mucho mayor que eso.” Las acciones de Nvidia subieron alrededor de un 2% el mismo lunes del anuncio. CNBC
¿De dónde viene semejante crecimiento? La respuesta tiene una sola palabra: inferencia. La economía de la IA está transitando hacia modelos de inferencia, habiendo superado la fase de entrenamiento, lo que impulsa la demanda de chips más complejos. “Finalmente, la IA es capaz de hacer trabajo productivo y, por lo tanto, el punto de inflexión de la inferencia ha llegado”, dijo Huang. Axios
El salto de 500,000 millones a 1 billón no es solo un número. Significa que Nvidia no solo espera terminar este año con fuerza, sino que 2027 será aún más fuerte, cientos de miles de millones de dólares más fuerte. Moor Insights & Strategy
Vera Rubin: el supercomputador que cabe en un rack
Si el billón de dólares fue el titular financiero, Vera Rubin fue el titular tecnológico. Nvidia presentó la plataforma de infraestructura Vera Rubin, un sistema verticalmente integrado diseñado para potenciar cada fase de la IA, incluyendo la próxima ola de inferencia agéntica. DataCenterKnowledge
La plataforma no es un solo chip. Es la pieza central de todo esto: siete chips nuevos y cinco tipos de racks diseñados para funcionar como un masivo supercomputador de IA. Combina GPUs Rubin y CPUs Vera con el nuevo acelerador de inferencia Groq 3 LPX, entregando hasta 35 veces más rendimiento de inferencia por megavatio. eWEEK
Aquí es donde la historia se pone divertida. Dylan Patel de SemiAnalysis corrió sus propios benchmarks, acusó a Jensen de “sandbagging” — es decir, de reportar deliberadamente números conservadores para que los resultados reales luzcan aún más impresionantes. La respuesta de Huang fue disarmante: “No está equivocado.” eWEEK
Los números de la arquitectura Vera Rubin cambian la economía del despliegue de IA empresarial: cinco veces el rendimiento de inferencia de los sistemas Blackwell Ultra actuales, diez veces menores costos por token de inferencia, y diez veces más rendimiento por vatio. Beam AI Microsoft Azure ya se comprometió como el primer hyperscaler en desplegar Vera Rubin NVL72, y AWS confirmó más de un millón de GPUs de Nvidia a nivel global.
Un detalle que captó la atención de analistas: los racks NVL72 pueden entrenar modelos con un cuarto del número de GPUs comparado con la plataforma Blackwell anterior. DataCenterKnowledge Menos hierro, más inteligencia.
NemoClaw, OpenClaw y la nueva apuesta de software
Quizás la movida más estratégica de todo GTC 2026 no fue un chip. Fue software. El anuncio de software con más implicaciones directas para la estrategia de IA empresarial fue OpenClaw, un framework de IA agéntica de código abierto que Jensen describió como “el sistema operativo de las computadoras agénticas.” Beam AI La analogía que usó Huang fue la de Windows: así como Windows dio a las computadoras personales un entorno estándar para correr software, OpenClaw le da a los agentes de IA un entorno estándar para operar.
Pero el mundo corporativo necesita más que código abierto sin restricciones. Cuando Jensen Huang tomó el escenario, reveló un problema: OpenClaw había acumulado cerca de 900 habilidades maliciosas y más de 135,000 instancias sin protección en todo el mundo. NemoClaw fue la respuesta directa de Nvidia: un fork endurecido para producción con seguridad OpenShell integrada en cada capa. NVIDIA
Junto al NemoClaw comercial, Nvidia lanzó OpenClaw como un framework de agentes de código abierto bajo licencia Apache 2.0, proporcionando las mismas primitivas de orquestación pero diseñado para desarrolladores que construyen flujos de trabajo de agentes personalizados sin quedar atados a la infraestructura de Nvidia. Digital Applied
La frase de Huang que resume la visión: “Cada empresa SaaS se convertirá en una empresa AGaaS” eWEEK, es decir, empresa de agentes como servicio. Y cada empresa necesita una estrategia de OpenClaw.
Dynamo 1.0, Groq y el sistema operativo para fábricas de IA
En el frente del software, Nvidia anunció la disponibilidad general de Nvidia Dynamo 1.0, una plataforma de software de inferencia de IA descrita como un sistema operativo para fábricas de IA. DataCenterKnowledge AWS, Google Cloud, Azure y Oracle ya estaban a bordo desde el lanzamiento, lo que señala que la adopción va más allá del marketing.
Dynamo 1.0 maneja la programación desagregada de prefill-decode, el intercambio de caché KV entre nodos y el balanceo dinámico de carga, capacidades que reducen directamente el costo de inferencia por token a escala empresarial. Digital Applied
El otro plot twist del keynote fue el Groq 3. Huang presentó el Nvidia Groq 3 Language Processing Unit, el primer chip de la startup que fue mayormente adquirida mediante una compra de activos de 20,000 millones de dólares en diciembre, el mayor acuerdo en la historia de Nvidia. CNBC El chip llegaría en el tercer trimestre. La integración es elegante: Rubin maneja el prefill y la atención (alto rendimiento), mientras Groq se encarga del decode y la generación de tokens (baja latencia). Juntos, los números que presenta Nvidia son difíciles de ignorar.
Más allá del software: autos, robots y hasta el espacio
GTC 2026 también trajo noticias del mundo físico. Huang anunció que Nissan, BYD, Geely, Isuzu e Hyundai están construyendo vehículos autónomos de nivel 4 sobre el programa Drive Hyperion de Nvidia. CNBC Uber, por su parte, anunció una expansión de su acuerdo con Nvidia para lanzar una flota global de vehículos en 28 mercados para 2028.
Y para quienes pensaban que Nvidia ya no podía sorprender más: Huang anunció el Módulo Vera Rubin Space-1, una plataforma de cómputo diseñada para centros de datos en órbita. “La computación espacial, la frontera final, ha llegado”, dijo, aparentemente sin ironía. aiHola Partners como Axiom Space, Starcloud, Planet Labs y Aetherflux ya están nombrados.
La visión del “pastel de cinco capas”
Para contextualizar todo esto, desde diciembre de 2025, Huang ha estado promoviendo la idea de un “pastel de cinco capas” de la IA, un concepto que encapsula la estrategia general de la compañía e intenta comunicar la naturaleza inherentemente vertical de la tecnología: desde los requerimientos de energía en la base hasta las aplicaciones individuales en la cima. Moor Insights & Strategy
Ahora vende un modelo económico completo: el token como unidad de producción, el centro de datos como fábrica, la inferencia como lo que genera ingresos. Dynamo, DSX, NemoClaw, la integración de Groq, el módulo espacial. Son todos componentes de un único argumento: que Nvidia ya no es una empresa de chips. Es el sistema operativo para la infraestructura de IA. aiHola



Deja un comentario
Lo siento, tenés que estar conectado para publicar un comentario.