Tu trayecto diario acaba de volverse mucho más inteligente. Con el lanzamiento de iOS 26.4, OpenAI ha llevado ChatGPT al tablero del auto, convirtiéndose en la primera gran plataforma de IA con una app dedicada para Apple CarPlay.
La actualización permite hacer preguntas, generar ideas y mantener conversaciones naturales con IAsin usar las manos mientras conduces.
Apple abre CarPlay a una nueva categoría de apps
Durante años, Apple limitó estrictamente las apps permitidas en CarPlay para reducir distracciones al volante. La plataforma solo aceptaba apps de:
Audio
Comunicación
Navegación
Carga de vehículos eléctricos
Con iOS 26.4, Apple añadió discretamente una nueva categoría, la de apps conversacionales basadas en voz.
Para integrarse, los desarrolladores deben:
Obtener permisos especiales de Apple
Cumplir estrictas normas de seguridad y diseño
Usar plantillas oficiales de CarPlay
Esto explica por qué la experiencia de ChatGPT en el coche es completamente diferente a la del iPhone.
Experiencia 100% por voz y sin distracciones
La app de ChatGPT en CarPlay está diseñada específicamente para la conducción:
No muestra texto ni imágenes
Solo funciona mediante voz
Interfaz minimalista con:
Botón “Finalizar”
Botón de silencio
Historial de conversaciones por voz
Apple exige que estas apps estén optimizadas para el entorno de manejo, por lo que la interacción visual se reduce al mínimo.
Limitaciones actuales de ChatGPT en el coche
Aunque la integración es potente, tiene algunas restricciones importantes:
No puede controlar funciones del vehículo
No puede cambiar ajustes del iPhone
No tiene “wake word” (palabra de activación)
Debes abrir manualmente la app desde el panel de CarPlay
Aun así, representa un paso enorme hacia la integración de asistentes de IA en el automóvil.
Cómo usar ChatGPT en Apple CarPlay
Para activarlo necesitas:
Actualizar tu iPhone a iOS 26.4 o superior
Descargar la última versión de ChatGPT desde la App Store
Abrir la app desde el tablero de CarPlay y empezar a hablar
La llegada de ChatGPT al coche marca el inicio de una nueva etapa en la conducción conectada, a saber tener una IA conversacional disponible en cada trayecto.
Este movimiento marcaría el fin de la exclusividad de ChatGPT dentro del ecosistema Apple y abriría la puerta a una nueva era de inteligencia artificial en iPhone, iPad y Mac.
Siri será compatible con múltiples IA
Desde la llegada de Apple Intelligence en iOS 18, OpenAI disfrutaba de una integración exclusiva de ChatGPT con Siri para resolver consultas complejas.
Sin embargo, reportes recientes indican que Apple abandonará este modelo cerrado para adoptar un enfoque más abierto. Con iOS 27, los usuarios podrán conectar Siri con múltiples servicios de IA, entre ellos:
El objetivo es crear un ecosistema competitivo donde el usuario elija qué IA usar según sus necesidades.
Así funcionará el nuevo sistema “Extensions”
Apple implementará un nuevo sistema basado en APIs llamado Extensions, disponible en:
iOS 27
iPadOS 27
macOS 27
Si el usuario tiene instalada una app de IA compatible, podrá asignarla a tareas específicas dentro de Siri. Por ejemplo:
Usar Claude para programación
Usar otra IA para búsquedas web
Combinar varios asistentes según el tipo de consulta
Todo se gestionará desde un nuevo menú en Configuración dentro de Apple Intelligence y Siri. Desde ahí, Apple ofrecerá enlaces directos a la App Store para descargar chatbots compatibles.
Este cambio también abre una nueva fuente de ingresos para Apple mediante suscripciones de IA dentro de la App Store.
El fin de la exclusividad con OpenAI
El nuevo modelo pone fin a la relación exclusiva entre Apple y OpenAI.
Este cambio también llega tras la presión del sector. La startup xAI de Elon Musk incluso presentó una demanda contra Apple y OpenAI, acusándolos de intentar dominar el mercado de IA.
Con iOS 27, Apple permitirá que cualquier desarrollador integre su chatbot con Siri, siempre que cumpla con las nuevas APIs.
La estrategia doble de Apple en inteligencia artificial
Abrir Siri no significa que Apple abandone su propia IA.
Los dispositivos seguirán usando modelos propios como sistema predeterminado mediante:
Procesamiento en el dispositivo
Private Cloud Compute para privacidad
Además, Apple mantiene una relación estratégica con Google. Aunque Gemini podrá integrarse como app externa, Apple también usaría versiones optimizadas de sus modelos para mejorar sus propios sistemas de Apple Intelligence.
Entre las funciones futuras se esperan:
Mayor control dentro de apps
Capacidades avanzadas de “Personal Intelligence”
Una posible app independiente de Siri con interfaz tipo chatbot
Un despliegue gradual
Apple ya comenzó este camino con iOS 26.4, que abrió CarPlay a chatbots de terceros.
La estrategia de iOS 27 muestra el nuevo enfoque de Apple, mantener el control del ecosistema mientras permite a los usuarios elegir las mejores herramientas de IA disponibles.
La guerra de los asistentes inteligentes en el iPhone acaba de comenzar.
OpenAI cierra Sora y cancela acuerdo millonario con Disney
OpenAI sigue con su giro estratégico hacia la IA empresarial
OpenAI ha decidido cerrar abruptamente su app de generación de video Sora, apenas seis meses después de su lanzamiento. La decisión no solo marca el fin de una de las apps más virales de IA, sino también la caída de un acuerdo de 1,000 millones de dólares con Disney.
El fin de Sora: de fenómeno viral a cierre inesperado
El anuncio se hizo oficial a través de X, donde OpenAI confirmó el cierre de la app y su API para desarrolladores.
We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.
We’ll share more soon, including timelines for the app and API and details on…
El objetivo es crear un ecosistema unificado enfocado en aumentar la productividad.
Sora no desaparece del todo
Aunque la app se cierra, su tecnología seguirá viva.
El equipo detrás de Sora se enfocará en:
Simulación de entornos (“world simulation”)
Aplicaciones en robótica
Resolución de tareas físicas en el mundo real
Una industria en constante cambio
El caso de Sora refleja la volatilidad del sector de la inteligencia artificial.
En la carrera por liderar la IA, OpenAI ha dejado claro que está dispuesto a abandonar incluso productos exitosos si no encajan en su estrategia a largo plazo.
En la era de la IA, la innovación es rápida, pero la permanencia no está garantizada. Esto es especialmente cierto para empresas que no tienen otras fuentes de ingresos. Esto expone a OpenAI mucho más que a otras empresas.
OpenAI está desarrollando una “superapp” de escritorio
OpenAI está desarrollando una “superapp” de escritorio
OpenAI ha decidido realizar un cambio estratégico en cómo distribuye su software. Va a desarrollar una aplicación de escritorio unificada, algo conocido como una “superapp”, que integrará sus principales productos, entre los que figuran ChatGPT, Codex y el navegador Atlas. De esta manera pretenden liderar la próxima generación de inteligencia artificial basada en agentes autónomos.
Toda la funcionalidad, en una sola app
El proyecto está liderado por Fidji Simo, responsable de aplicaciones en OpenAI, junto con Greg Brockman. La iniciativa busca resolver un problema interno, la fragmentación de productos.
Hasta ahora, OpenAI ha distribuido sus capacidades en múltiples herramientas, lo que ha ralentizado el desarrollo y puede llegar a confundir a los usuario. La nueva superapp pretende unificar todo en una sola interfaz coherente y más potente.
Según Simo, la empresa necesita centrarse en lo que realmente funciona y evitar distracciones, especialmente tras un año de múltiples experimentos.
La desventaja de las superapps es que suelen ser más complejas de aprender a manejar y por lo tanto más intimidantes para nuevos usuarios. Esto podría ser un problema para OpenAI dado que sus clientes suelen ser menos sofisticados y avanzados que los de su principal competidor, Anthropic.
Competencia directa con Anthropic
Este movimiento también responde a la presión competitiva, especialmente por parte de Anthropic, que ha ganado terreno con productos como Claude Code y Cowork, orientados a desarrolladores y empresas.
OpenAI busca reforzar su posición en:
Productividad avanzada
Desarrollo de software
Casos de uso empresariales
La estrategia pasa por priorizar estas áreas y dejar en segundo plano otros proyectos menos estratégicos.
El objetivo, dominar la IA basada en agentes
El núcleo de esta transformación es la llamada IA basada en agentes (agentic AI).
A diferencia de los chatbots tradicionales, estos sistemas pueden:
Actuar de forma autónoma
Tomar decisiones
Utilizar herramientas y software
Ejecutar tareas complejas con mínima supervisión
OpenAI quiere que su superapp sea el centro de operaciones de estos agentes inteligentes, que son capaces de trabajar directamente en la computadora del usuario.
Integración progresiva de funciones
El despliegue será gradual:
Primero llegarán nuevas capacidades basadas en agentes a Codex
Luego se expandirán más allá de la programación hacia tareas generales
Finalmente, ChatGPT y el navegador Atlas se integrarán en la misma app
Este enfoque permitirá a OpenAI iterar sin comprometer la estabilidad del ecosistema.
¿Por qué solo en escritorio (y no en iPhone)?
Una de las decisiones más llamativas es que esta superapp será exclusiva para macOS.
La razón es técnica:
Los sistemas de escritorio permiten mayor acceso al sistema
La IA necesita interactuar con archivos, apps y procesos
Se requieren automatizaciones en segundo plano
En contraste, iOS limita estas capacidades debido a su modelo de seguridad basado en sandboxing.
Además:
Apple obliga a usar WebKit en navegadores
Restringe apps que actúan como plataformas dentro de la App Store
Limita la ejecución autónoma de acciones entre aplicaciones
Todo esto hace inviable una superapp real en dispositivos móviles.
Una nueva capa sobre el sistema operativo
La visión de OpenAI es ambiciosa: crear una capa de software que se sitúe por encima de las aplicaciones tradicionales.
En este modelo, la IA:
Organiza la información
Decide qué herramientas usar
Ejecuta tareas completas de principio a fin
En esencia, pasamos de asistentes conversacionales a “trabajadores digitales” autónomos.
El futuro de la IA, del chat a la acción
Con esta superapp, OpenAI no solo busca mejorar su producto, sino redefinir cómo interactuamos con la tecnología.
Mientras en móviles Apple mantiene un control férreo del ecosistema, el escritorio se perfila como el campo de batalla donde la IA podrá desplegar todo su potencial.
Si OpenAI logra ejecutar esta visión, podríamos estar ante el inicio de una nueva era: la de sistemas que no solo responden a nuestras preguntas, sino que trabajan por nosotros.
Menos experimentos para OpenAI y más productividad empresarial
Menos experimentos y más productividad empresarial
OpenAI ha decidido cambiar de rumbo de forma contundente. Ante la creciente presión de competidores como Anthropic y Google, la compañía está dejando atrás proyectos experimentales para centrarse en lo que considera su prioridad clave: herramientas de productividad para empresas.
De “todo a la vez” a un enfoque claro
Durante los últimos meses, OpenAI había diversificado agresivamente su portafolio:
El navegador ChatGPT Atlas
El modelo de vídeo Sora
Un misterioso dispositivo físico con Jony Ive
Sin embargo, esta estrategia de expansión parece haber terminado por diluir su foco. Según reportes recientes del Wall Street Journal, la dirección ha reconocido que intentar abarcar demasiado los puso a la defensiva frente a competidores más enfocados.
GPT-5.4: el nuevo eje de la estrategia
El cambio ya se está materializando con el lanzamiento de GPT-5.4, un modelo diseñado específicamente para:
Desarrollo de software
Automatización de tareas
Sistemas basados en “agentes” de IA
A diferencia de versiones anteriores, este modelo puede operar como un agente capaz de interactuar con múltiples aplicaciones dentro de un mismo entorno, ejecutando flujos de trabajo completos de forma autónoma, cosa que sus competidores ya hacían.
Este enfoque acerca a OpenAI a propuestas como OpenClaw, que han ganado popularidad al demostrar el potencial real de los agentes autónomos.
Presión competitiva: Claude y Gemini avanzan
El giro estratégico no ocurre en el vacío. Claude de Anthropic ha ganado terreno rápidamente, especialmente entre desarrolladores y empresas, gracias a herramientas como Claude Code.
Por su parte, Gemini de Google también ha acelerado su evolución, con lanzamientos más frecuentes y modelos cada vez más competitivos.
Dentro de OpenAI, la situación se percibe como crítica. Fidji Simo, responsable de aplicaciones, llegó a describir el momento como una “alerta roja” para recuperar la confianza del mercado B2B. La situación no es para menos, después de haber sido percibidos como líderes de mercado, en meses recientes en la mente de muchos usuarios han caído al tercer lugar.
El objetivo: dominar el trabajo, no el entretenimiento
La nueva estrategia es clara:
Priorizar herramientas útiles para empresas
Centrarse en desarrolladores
Abandonar proyectos considerados “secundarios”
Esto implica apostar por:
Automatización de workflows
Integración entre aplicaciones
Agentes capaces de ejecutar tareas reales
Más que competir en experiencias llamativas para el consumidor, OpenAI quiere convertirse en la infraestructura que impulsa el trabajo diario.
Un reconocimiento implícito
Este cambio también refleja cierta autocrítica. Algunos proyectos recientes no lograron el impacto esperado, y la compañía parece haber entendido que, en plena carrera por la IA, el foco es esencial.
Al volver a centrar sus esfuerzos en productividad y agentes autónomos, OpenAI busca recuperar terreno en el segmento más estratégico: empresas y desarrolladores.
La guerra de la IA entra en una nueva fase
Con este giro, queda claro que la competencia ya no se define solo por quién tiene el mejor modelo, sino por quién ofrece las herramientas más útiles para trabajar.
OpenAI apuesta ahora por ser ese proveedor clave. La pregunta es si este cambio llega a tiempo para frenar el avance de sus rivales.
OpenAI lanza GPT-5.4 mini y nano. Modelos más rápidos y eficientes para cargas masivas.
Modelos más rápidos y eficientes para cargas masivas
OpenAI continúa ampliando su ecosistema de inteligencia artificial con el lanzamiento de GPT-5.4 mini y GPT-5.4 nano, dos versiones optimizadas de su modelo principal GPT-5.4.
Tras la llegada en marzo de GPT-5.4, centrado en tareas exigentes como programación avanzada y análisis de datos, estos nuevos modelos están diseñados para ofrecer alto rendimiento con mayor velocidad y menor coste, especialmente en entornos de alto volumen y flujos de trabajo con múltiples agentes.
GPT-5.4 mini: alto rendimiento con menor latencia
GPT-5.4 mini representa un salto importante en modelos compactos.
Es más del doble de rápido que su predecesor, GPT-5 mini, y mejora significativamente en:
Programación
Razonamiento
Uso de herramientas
Comprensión multimodal (texto, imagen y audio)
Además, se acerca al rendimiento del modelo completo en evaluaciones exigentes como:
SWE-Bench Pro
OSWorld-Verified
El modelo está especialmente diseñado para tareas donde la velocidad es clave, como:
Iteración rápida en código
Depuración (debugging)
Navegación de bases de código
Generación de interfaces
También destaca en tareas de “uso de computadora”, interpretando capturas de pantalla y ejecutando acciones de forma eficiente.
GPT-5.4 nano: máxima eficiencia a gran escala
Para escenarios donde el coste y la velocidad son prioritarios, OpenAI introduce su nuevo modelo en versión nano.
Este modelo está optimizado para tareas más simples pero de gran volumen, como:
Clasificación de datos
Extracción de información
Ranking de contenido
También es ideal como motor para subagentes, encargados de tareas específicas dentro de sistemas más complejos.
El auge de los sistemas multi-modelo
Uno de los cambios más importantes que acompañan este lanzamiento es el enfoque hacia arquitecturas distribuidas.
En lugar de depender de un único modelo grande, los desarrolladores pueden ahora construir sistemas donde:
Un modelo principal (como GPT-5.4) coordina y toma decisiones
Modelos más pequeños (mini o nano) ejecutan tareas específicas en paralelo
Esto permite:
Procesar grandes volúmenes de datos
Reducir la latencia
Optimizar costos
Disponibilidad de GPT-5.4 mini y nano en ChatGPT y a través del API
OpenAI ha hecho que estos modelos estén disponibles en múltiples entornos:
En ChatGPT
GPT-5.4 mini está disponible incluso para usuarios gratuitos mediante la opción “Thinking”
También funciona como alternativa rápida cuando se alcanzan los límites del modelo principal
En herramientas de desarrollo
Integración con Codex (CLI, IDE, app web)
Ideal para tareas de programación más simples a menor costo
En la API de OpenAI
Ambos modelos están disponibles para desarrolladores:
GPT-5.4 mini
Ventana de contexto de hasta 400.000 tokens
Soporte para texto e imagen
Funciones avanzadas como búsqueda web, archivos y uso de herramientas
GPT-5.4 nano
El modelo más económico
Optimizado para tareas masivas y automatizadas
Más velocidad sin sacrificar inteligencia
Con los nuevos modelos mini y nano, OpenAI refuerza una tendencia clara en la industria, a saber que la inteligencia artificial no solo debe ser potente, sino también rápida, escalable y accesible.
Este lanzamiento permite a desarrolladores y empresas equilibrar rendimiento, coste y velocidad, abriendo la puerta a sistemas más complejos, reactivos y eficientes.
OpenClaw presenta un riesgo de seguridad inaceptable
El auge del framework de inteligencia artificial OpenClaw ha sido meteórico en el mundo tecnológico, pero su expansión acaba de encontrar un obstáculo importante en China. Tras una rápida adopción impulsada por grandes plataformas en la nube del país, las autoridades de ciberseguridad han emitido advertencias severas e incluso han ordenado prohibiciones en organismos gubernamentales y empresas estatales.
Una adopción explosiva impulsada por los gigantes tecnológicos chinos
El framework OpenClaw se popularizó rápidamente gracias a su capacidad para crear agentes de IA capaces de interactuar con aplicaciones y servicios de forma autónoma.
Grandes empresas tecnológicas chinas aprovecharon la tendencia. Entre ellas:
Alibaba
Tencent
Tencent incluso lanzó una herramienta basada en el framework llamada “Work Buddy”, diseñada para permitir a los usuarios integrar múltiples plataformas de mensajería en cuestión de minutos mediante despliegues automatizados.
Este ecosistema de implementaciones rápidas generó lo que muchos en la industria comenzaron a llamar “OpenClaw Mania”.
Advertencia oficial de ciberseguridad
El entusiasmo se detuvo abruptamente el 10 de marzo de 2026, cuando el organismo de ciberseguridad chino China National Computer Network Emergency Response Technical Team (CERT) emitió una alerta pública en su cuenta oficial de WeChat.
Según el aviso, OpenClaw presenta riesgos de seguridad significativos, principalmente debido a configuraciones de seguridad predeterminadas extremadamente débiles.
Entre los principales problemas señalados se encuentran:
Vulnerabilidad a inyecciones de prompts maliciosos desde páginas web
Plugins comprometidos capaces de tomar control del sistema
Fallos que permiten robo de credenciales y acceso a redes corporativas
Además, el organismo destacó un riesgo adicional, los errores de uso por parte de los propios usuarios, que podrían provocar que el agente de IA elimine o modifique datos críticos sin intención.
Reglas estrictas para usar el framework
Para reducir los riesgos, CERT publicó una serie de recomendaciones técnicas:
Ejecutar OpenClaw en entornos aislados o contenedores
Bloquear el puerto de administración desde internet
Aplicar controles estrictos de autenticación y acceso
Limitar el uso de plugins
Desactivar las actualizaciones automáticas
Sin embargo, para muchas organizaciones estas medidas no fueron suficientes.
Prohibición en organismos estatales y bancos
Un día después de la advertencia, reportes indicaron que varias agencias gubernamentales y empresas estatales chinas recibieron instrucciones directas para prohibir la instalación de OpenClaw en computadoras de escritorio.
La orden también afectó a grandes bancos públicos, a cuyos empleados les pidieron:
Reportar instalaciones existentes
Permitir revisiones de seguridad inmediatas
Desinstalar cualquier versión del software
Preocupaciones globales sobre seguridad
La reacción de China se suma a una creciente preocupación internacional sobre este exitoso framework.
La firma de análisis tecnológico Gartner calificó recientemente a OpenClaw como “un riesgo inaceptable de ciberseguridad” para las empresas. Su recomendación fue utilizarlo únicamente en máquinas virtuales aisladas y con credenciales temporales.
Incluso se han reportado incidentes reales. A finales de febrero, una directora de Meta informó que su agente OpenClaw comenzó a eliminar cientos de correos electrónicos sin haber recibido instrucciones, pese a haber sido probado previamente en un entorno controlado.
Un desafío inmediato para OpenAI
El framework fue creado originalmente por el ingeniero austriaco Peter Steinberger y recientemente adquirido por OpenAI.
Ahora, la compañía enfrenta el desafío de reconstruir la confianza del mercado. Para lograrlo, deberá reforzar rápidamente la arquitectura de seguridad del sistema.
Si las vulnerabilidades no se solucionan con rapidez, el entusiasmo inicial por OpenClaw podría transformarse en una creciente desconfianza entre gobiernos, empresas y organizaciones de todo el mundo, frenando lo que hasta hace poco parecía uno de los fenómenos más prometedores en el desarrollo de agentes de inteligencia artificial.
ChatGPT transforma la enseñanza de matemáticas y física con nuevas visualizaciones interactivas
Aprender matemáticas y ciencias suele resultar frustrante para muchos estudiantes. Según encuestas recientes, más de la mitad de los adultos en Estados Unidos reconocen tener dificultades con las matemáticas y muchos padres admiten no sentirse seguros al ayudar a sus hijos con los deberes. Para reducir esta brecha, OpenAI ha presentado una nueva función en ChatGPT. Se llama “explicaciones visuales dinámicas” y convierte al chatbot en una herramienta de aprendizaje interactiva.
Con esta actualización, ChatGPT pasa a funcionar como un laboratorio educativo interactivo, donde los usuarios pueden experimentar directamente con conceptos científicos y matemáticos.
Aprender manipulando conceptos en tiempo real
A partir de esta semana, cuando los usuarios pidan ayuda sobre ciertos temas de matemáticas, física u otras ciencias, ChatGPT generará módulos visuales interactivos.
En lugar de leer una explicación estática o mirar un diagrama plano, los estudiantes pueden:
Modificar variables
Ajustar fórmulas
Observar cómo cambian gráficos y resultados en tiempo real
Por ejemplo, al estudiar el teorema de Pitágoras, los estudiantes pueden cambiar las longitudes de los lados de un triángulo y ver cómo se actualiza automáticamente la longitud de la hipotenusa.
También es posible activar estos módulos preguntando sobre conceptos como:
La ley de los gases ideales
El área de un círculo
La ecuación de lentes delgadas
Este enfoque permite comprender cómo se relacionan las variables, algo que a menudo resulta difícil de captar solo con explicaciones teóricas.
Más de 70 conceptos disponibles
En su lanzamiento inicial, la función cubre más de 70 temas clave de matemáticas y ciencia.
Entre ellos se incluyen conceptos como:
Distribución binomial
La ley de Charles
La ley de Coulomb
La ley de elasticidad de Hooke
La ley de Ohm
El objetivo es que los estudiantes puedan explorar conceptos fundamentales de forma visual y experimental.
Un enfoque educativo diferente
Aunque la función está disponible para todos los usuarios registrados de ChatGPT, OpenAI considera que será especialmente útil para estudiantes de secundaria y universitarios.
Durante las pruebas iniciales, muchos estudiantes señalaron que las visualizaciones les ayudaban a comprender mejor la relación entre variables y resultados. Los padres destacaron que la herramienta facilita explicar problemas complejos a sus hijos.
Según la profesora de matemáticas de secundaria Anjini Grover, el valor del sistema radica en su enfoque pedagógico:
“Lo importante es cómo enfatiza la comprensión conceptual. Entender por qué algo funciona y cómo se conectan las ideas ayuda a que el aprendizaje perdure”.
De resolver problemas a enseñar realmente
La introducción de estas visualizaciones marca un cambio importante en el papel de la inteligencia artificial en la educación.
En lugar de simplemente entregar respuestas —algo que ha generado preocupación entre educadores por el posible uso indebido de la IA para copiar tareas— la función anima a los estudiantes a explorar el “cómo” y el “por qué” de cada problema.
Investigaciones educativas indican que el aprendizaje visual e interactivo mejora significativamente la comprensión conceptual frente a la memorización tradicional.
Un área clave para el futuro de la IA educativa
La demanda de herramientas educativas basadas en IA es enorme. Según OpenAI, más de 140 millones de personas utilizan ChatGPT cada semana para estudiar matemáticas y ciencias.
Las visualizaciones interactivas se suman a otras funciones educativas de la plataforma, como:
QuizGPT, que genera tarjetas de estudio y exámenes de práctica
Study Mode, diseñado para guiar al estudiante paso a paso en lugar de dar solo la respuesta final
Además, el avance refleja una tendencia más amplia en la industria. Empresas como Google también han comenzado a integrar diagramas y visualizaciones interactivas en su modelo Gemini.
El futuro del aprendizaje asistido por IA
OpenAI considera que esta función es solo el comienzo. La compañía planea expandir las visualizaciones interactivas a más materias con el tiempo.
Habrá que ver cómo evoluciona esto. El que esta funcionalidad esté limitada a un número definido de conceptos parece indicar que estas funcionalidad está alambrada y que no es algo que genere automáticamente la IA, por lo que puede que resulte difícil de generalizar.
A través de iniciativas como NextGenAI y el OpenAI Learning Lab, OpenAI también está investigando cómo la inteligencia artificial influye en los procesos de aprendizaje.
La meta final es clara: crear herramientas de IA que no solo resuelvan problemas, sino que ayuden realmente a las personas a entenderlos.
OpenAI continúa acelerando el desarrollo de su inteligencia artificial. Apenas unos días después de presentar GPT-5.3 Instant, la compañía ha anunciado GPT-5.4, su nuevo modelo insignia orientado a tareas complejas y entornos profesionales.
El modelo llega en dos variantes principales:
GPT-5.4 Thinking
GPT-5.4 Pro
Ambas versiones reflejan una evolución clara en la estrategia de OpenAI: pasar de simples chatbots conversacionales a agentes digitales capaces de trabajar de forma autónoma.
La rápida sucesión de lanzamientos deja claro que la compañía intenta mantenerse por delante de competidores como Gemini 3.1 Pro de Google y Claude Opus 4.6 de Anthropic.
La era del uso nativo del ordenador
Una de las novedades más importantes de GPT-5.4 es su capacidad nativa para utilizar un ordenador.
Por primera vez en un modelo principal de OpenAI, la IA puede:
Ejecutar comandos de ratón y teclado
Navegar por interfaces de escritorio
Interpretar capturas de pantalla de aplicaciones
Interactuar con múltiples programas al mismo tiempo
En la práctica, esto permite que el sistema realice tareas completas de forma autónoma, como:
Rellenar hojas de cálculo en Excel
Realizar investigaciones en la web
Generar presentaciones en PowerPoint
Combinar información entre varias aplicaciones
El modelo funciona mediante un ciclo continuo de “construir-ejecutar-verificar-corregir”, lo que le permite revisar su propio trabajo y corregir errores automáticamente.
Este enfoque responde a la creciente competencia en el mercado empresarial. Recientemente, Microsoft integró modelos de Anthropic en Microsoft Copilot dentro de Microsoft 365, tras comprobar que Claude generaba mejores hojas de cálculo y presentaciones que modelos anteriores de OpenAI.
GPT-5.4 es la respuesta directa de OpenAI para intentar recuperar terreno en el sector corporativo.
Una nueva interfaz para ajustar la planeación
Con GPT-5.4 Thinking, OpenAI también cambia la forma en que los usuarios interactúan con la inteligencia artificial.
En lugar de limitarse a ofrecer una respuesta final, el sistema muestra primero un plan detallado de su razonamiento y de las acciones que pretende realizar.
Los usuarios pueden:
Observar ese plan en tiempo real
Corregirlo o ajustar pasos durante la ejecución
Guiar el proceso sin tener que empezar de nuevo con otro prompt
Este enfoque resulta especialmente útil para tareas complejas o profesionales, donde un pequeño malentendido puede obligar a repetir todo el proceso.
La función se está desplegando actualmente en ChatGPT web y Android, con soporte para iOS previsto próximamente.
Un contexto masivo y mayor precisión
Para soportar tareas complejas y procesos largos, GPT-5.4 incorpora:
Ventana de contexto de 1 millón de tokens
Capacidad para analizar bases de código completas
Procesamiento de grandes colecciones de documentos
El modelo también introduce técnicas para compactar la ventana de contexto, que permiten mantener el contexto relevante durante tareas largas sin perder información clave. Esto es algo que ya hacía Anthropic.
En tareas de investigación, GPT-5.4 destaca en consultas tipo “aguja en un pajar”, realizando múltiples rondas de búsqueda en internet para sintetizar información difícil de encontrar.
OpenAI afirma además que es su modelo más fiable hasta la fecha, con una reducción de hasta 33 % en alucinaciones con respecto a GPT-5.2.
En el benchmark profesional GDPval, que evalúa capacidades en áreas como finanzas, derecho y marketing, GPT-5.4 alcanzó un 83 % de éxito, frente al 70,9 % obtenido por su predecesor.
GPT-5.4 is launching, available now in the API and Codex and rolling out over the course of the day in ChatGPT.
It's much better at knowledge work and web search, and it has native computer use capabilities.
El nuevo modelo está claramente orientado a profesionales, empresas y desarrolladores, por lo que no estará disponible para usuarios Free o Go.
El despliegue se realizará gradualmente en:
ChatGPT
Codex
la API de OpenAI
El calendario previsto es el siguiente:
GPT-5.4 Thinking será el modelo de razonamiento por defecto para suscriptores Plus, Team y Pro, reemplazando a GPT-5.2 Thinking en los próximos tres meses.
GPT-5.4 Pro, optimizado para cálculos matemáticos y científicos avanzados, estará disponible únicamente para Enterprise, Educación y clientes de API.
Para desarrolladores, el modelo promete mayor eficiencia en tareas complejas con herramientas externas, aunque el precio también aumenta. El costo de un millón de tokens de entrada pasa a $2,50, frente a los $1,75 del modelo anterior.
La apuesta empresarial de OpenAI
Con aproximadamente 25 000 millones de dólares de ingresos anualizados y enormes inversiones en infraestructura de centros de datos, OpenAI necesita convertir su tecnología en un negocio sostenible.
Al transformar ChatGPT de un simple asistente conversacional en un agente profesional capaz de realizar trabajo real, GPT-5.4 podría convertirse en la herramienta clave para consolidar la posición de OpenAI en el mercado empresarial y en el futuro de la inteligencia artificial. Sin embargo, no va a ser fácil, la competencia va a ser feroz.
Los usuarios de Windows no tuvieron que esperar mucho
Tras un exitoso debut en macOS a principios de febrero, OpenAI ha lanzado oficialmente la versión para Windows de su aplicación independiente Codex. La herramienta ya había generado una gran expectación: la versión para Mac superó un millón de descargas en su primera semana y actualmente cuenta con 1,6 millones de usuarios activos semanales. Ahora, los más de 500.000 desarrolladores en lista de espera de Windows finalmente pueden acceder al asistente.
Codex, un centro de control para agentes de IA
Lo que diferencia a Codex de otros asistentes de programación es su enfoque. En lugar de limitarse a generar fragmentos de código, OpenAI describe la aplicación como “un centro de mando para agentes”.
La idea es que los desarrolladores puedan coordinar múltiples agentes de IA trabajando en paralelo sobre una misma tarea. Estos agentes pueden colaborar en procesos como:
Generación y refactorización de código
Pruebas de errores
Automatización de tareas repetitivas
Exploración de repositorios complejos
Para facilitar el uso, la aplicación incluye una sección llamada “Skills”, que agrupa instrucciones, scripts y recursos para conectar agentes con flujos de trabajo específicos.
Aunque los usuarios pueden ver diferencias de código y abrir proyectos en su IDE favorito, la interfaz de Codex está diseñada principalmente para gestionar y supervisar agentes de IA.
Diseñado específicamente para Windows
OpenAI subraya que esta versión no es un simple port de macOS, sino una aplicación pensada para entornos reales de desarrollo en Windows.
Entre sus características destacan:
Sandboxing nativo para ejecutar agentes de forma segura
Uso de tokens restringidos y control de acceso al sistema de archivos
Integración con entornos como PowerShell
Para quienes prefieran otro entorno, Codex también permite ejecutar agentes a través de Windows Subsystem for Linux(WSL) y sus herramientas asociadas.
Además, incluye funciones específicas del sistema, como una skill dedicada a WinUI para desarrolladores que crean aplicaciones nativas de Windows.
Codex usa por modelos especializados en programación
Bajo el capó, Codex funciona con los modelos más recientes de OpenAI orientados al desarrollo. El sistema utiliza por defecto GPT-5.3-Codex, aunque los usuarios pueden cambiar entre diferentes modelos según la tarea.
Entre las opciones disponibles se incluyen:
GPT-5.3-Codex (predeterminado)
GPT-5.2-Codex
GPT-5.1-Codex-Max
GPT-5.2
GPT-5.1-Codex-Mini, optimizado para velocidad
Los desarrolladores también pueden ajustar el nivel de razonamiento del modelo dependiendo de la complejidad o urgencia del trabajo.
Experiencia multiplataforma sin interrupciones
Para quienes trabajan en varios dispositivos, Codex mantiene sincronización completa entre plataformas. El historial de sesiones se guarda directamente en la cuenta de usuario, lo que permite iniciar un proyecto en macOS y continuarlo sin fricción en Windows.
La aplicación ya está disponible y puede utilizarse en todos los planes de ChatGPT, incluidos Free, Go, Plus, Pro, Business, Enterprise y Edu.
Con este lanzamiento, OpenAI amplía su apuesta por herramientas de desarrollo impulsadas por agentes, acercando su visión de programación asistida por IA a una base aún mayor de desarrolladores.