OpenAI formalizó en abril de 2026 una idea que ya venía insinuando desde el lanzamiento de la app de Codex: el agente no está pensado solo para una sesión de chat en primer plano, sino para seguir trabajando mientras el usuario hace otra cosa. La pista más clara aparece en la guía oficial Codex settings, publicada el 23 de abril de 2026, donde OpenAI explica dos funciones concretas: `Prevent sleep while running`, para evitar que la computadora entre en reposo durante tareas largas, y un avatar movible que permite seguir el trabajo de Codex desde cualquier otra ventana.
No es un detalle menor de interfaz. Es un cambio de modelo de uso.
Del chat interactivo al trabajo supervisado
Cuando OpenAI presentó la app de Codex el 2 de febrero de 2026, la describió como un centro de mando para gestionar varios agentes al mismo tiempo, correr trabajo en paralelo y coordinar tareas largas. La actualización del 4 de marzo confirmó además la llegada a Windows. La promesa de fondo era clara: menos uso tipo "pregunta y respuesta", más supervisión de procesos que siguen corriendo mientras la persona cambia de contexto.
La guía de ajustes del 23 de abril baja esa idea a tierra. Si una aplicación necesita mantener despierta la máquina para no interrumpir una corrida y además ofrece un avatar persistente para monitorear el progreso sin volver a la ventana principal, entonces ya no está pensando en una interacción continua de teclado. Está pensando en delegación.
Esa lectura surge de las páginas oficiales de OpenAI; no hace falta exagerarla. El producto todavía se presenta como una herramienta supervisada, con permisos configurables y margen para intervención humana. Pero el tipo de interfaz que eligió OpenAI muestra hacia dónde quiere empujar el hábito de uso.
Qué funciones sostienen ese trabajo en segundo plano
La primera es la más práctica: `Prevent sleep while running`. OpenAI la recomienda para tareas largas y advierte que, si la computadora entra en reposo, Codex puede detenerse. Eso convierte al agente en algo más parecido a una compilación larga, una exportación pesada o un job de infraestructura que a un simple asistente conversacional.
La segunda es visual pero igual de importante: el avatar de Codex. Según la guía oficial, se puede arrastrar por la pantalla y usar como punto de retorno a la app mientras uno sigue en otros programas. La decisión de producto es muy explícita: OpenAI quiere que Codex permanezca visible como presencia de trabajo, no necesariamente como ventana activa.
La tercera es `Detail level`. En modo `Coding`, Codex muestra con más precisión qué comandos ejecuta; en modo `Default`, reduce ruido. Eso también encaja con un escenario de trabajo en segundo plano: no todos los usuarios quieren mirar cada paso todo el tiempo, pero sí necesitan una forma de volver al hilo cuando necesiten comprobar qué hizo el agente.
Por qué esto cambia la relación con una herramienta de código
Hasta hace poco, la metáfora dominante para la IA aplicada al desarrollo era la del copiloto: sugerencias inmediatas, autocompletado, diálogo corto, correcciones puntuales. El diseño reciente de Codex se mueve un poco más cerca de otra figura: la del colaborador asincrónico.
Eso modifica tres cosas.
Primero, la unidad de trabajo. En vez de pedir una respuesta instantánea, el usuario puede delegar un bloque más grande y revisar resultados después.
Segundo, la atención. Ya no hace falta permanecer dentro de la misma ventana esperando. El producto asume que la persona puede seguir con correo, navegador, documentación o editor mientras el agente corre una tarea aparte.
Tercero, la responsabilidad de supervisión. Cuanto más se parece un agente a un compañero que trabaja en paralelo, más importante se vuelve entender qué permisos tiene, cómo reporta lo que hizo y en qué punto conviene intervenir. OpenAI no presenta estas funciones como autonomía total, sino como una manera de reducir interrupciones sin borrar el control humano.
Lo que esto no significa
No significa que Codex "trabaje solo" sin límites ni que cualquier tarea pueda dejarse desatendida. Las mismas páginas oficiales insisten en configuración conservadora, revisión y ajuste de permisos. Tampoco implica que el producto haya resuelto todos los problemas de confianza, trazabilidad o verificación de cambios.
Lo que sí significa es que OpenAI ya no diseña Codex como una herramienta que vive únicamente en el momento de la conversación. Lo diseña para ocupar un lugar más estable en la jornada de trabajo: visible, monitoreable y capaz de seguir ejecutando tareas mientras el usuario pasa a otra cosa.
Esa transición importa porque cambia la pregunta central. Ya no alcanza con preguntar "qué tan bien responde", sino "qué tan bien trabaja cuando deja de ser el centro de la pantalla".
Fuente original: Codex settings, OpenAI Academy, 23 de abril de 2026
Ver también: Introducing the Codex app, OpenAI, 2 de febrero de 2026