OpenAI ya ha movido ficha con GPT-5.4, y no con un retoque menor. La compañía lo presentó el 5 de marzo de 2026 como un modelo que unifica sus avances recientes en razonamiento, programación y flujos de trabajo con agentes. En ChatGPT llega como GPT-5.4 Thinking; en la API y en Codex aparece como gpt-5.4, donde además pasa a ocupar el papel de modelo recomendado para el trabajo importante y reemplaza a generaciones anteriores en esos entornos.
Lo más relevante no es el nombre. Lo importante es el enfoque. OpenAI no vende GPT-5.4 como “otro modelo más”, sino como su opción más capaz para trabajo profesional real: documentos, presentaciones, hojas de cálculo, investigación, programación y tareas largas con varias herramientas de por medio. En su propia documentación lo define como su modelo “más capaz para trabajo profesional”, y en ChatGPT lo describe como una versión pensada para entregar resultados más precisos con menos ida y vuelta.
Qué cambia de verdad con GPT-5.4
La mejora más clara está en cómo combina varias cosas a la vez. GPT-5.4 no solo razona mejor: también trabaja mejor con herramientas, mantiene mejor el contexto y se desenvuelve mejor en tareas que se parecen más a una jornada de oficina que a una demo bonita. OpenAI afirma que el modelo mejora específicamente en tareas profesionales con spreadsheets, presentations y documents, y lo acompaña con evaluaciones donde el sistema produce entregables reales, como presentaciones comerciales, hojas contables, calendarios o diagramas. En la prueba GDPval, GPT-5.4 alcanza un 83,0% de comparaciones ganadas o empatadas frente a profesionales del sector, frente al 70,9% de GPT-5.2.
También hay un salto claro en el uso de herramientas. OpenAI destaca que GPT-5.4 mejora la búsqueda y selección de herramientas dentro de ecosistemas grandes, algo clave para agentes más útiles y menos torpes. En la guía oficial del modelo, la empresa explica que incorpora tool_search, carga diferida de herramientas y soporte de compaction, pensado para mantener trayectorias de agentes más largas sin perder el hilo. Traducido: menos caos cuando una tarea exige varios pasos, varios conectores y bastante contexto acumulado.
El gran matiz: el “computer use” nativo no es humo, pero hay que decirlo bien
Aquí conviene afinar, porque es donde más fácil sería exagerar. OpenAI sí confirma capacidades nativas de computer use, pero lo hace de forma explícita para la API y Codex, no como una promesa general e idéntica en toda la experiencia de ChatGPT. Según el anuncio oficial y la guía para desarrolladores, GPT-5.4 es el primer modelo generalista de OpenAI con computer use integrado, capaz de operar software a través de interfaces, revisar pantallas y ejecutar acciones estructuradas dentro de un bucle tipo “construir, ejecutar, verificar y corregir”.
Eso enlaza con otra mejora fuerte: el contexto largo. OpenAI indica que GPT-5.4 soporta hasta 1 millón de tokens de contexto, algo especialmente útil para analizar bases de código enteras, colecciones largas de documentos o tareas de agente con muchos pasos. En el changelog de Codex, además, la compañía especifica que GPT-5.4 llega a Codex con soporte experimental para esa ventana larga y lo presenta como la opción recomendada para la mayoría de tareas dentro de ese entorno.
Más visión, mejor uso en software y menos modelo “de laboratorio”
GPT-5.4 también avanza en visión, aunque sin venderlo como un modelo audiovisual total. La documentación de la API indica soporte para entrada de texto e imagen, mientras que las evaluaciones públicas del lanzamiento muestran mejoras en bloques de computer use and vision y en benchmarks de uso de herramientas. No es simplemente “entiende imágenes”: la apuesta real parece ser que el modelo vea interfaces, entienda estados del software y actúe con más criterio en flujos complejos.
Y luego está Codex, donde el movimiento tiene bastante lógica. OpenAI explica que GPT-5.4 sustituye a gpt-5.3-codex como opción recomendada en Codex y que está disponible en la app, CLI, extensión de IDE y versión web. Eso refuerza una idea bastante clara: OpenAI quiere que su línea principal deje de ser solo buena contestando y empiece a ser realmente útil haciendo trabajo de software y tareas complejas de principio a fin.



Deja un comentario
Lo siento, tenés que estar conectado para publicar un comentario.