gadgetsgenial.es

Autor: Huibert Aalbers

  • OpenAI da un giro estratégico para enderezar la empresa

    Menos experimentos para OpenAI y más productividad empresarial
    Menos experimentos para OpenAI y más productividad empresarial

    Menos experimentos y más productividad empresarial

    OpenAI ha decidido cambiar de rumbo de forma contundente. Ante la creciente presión de competidores como AnthropicGoogle, la compañía está dejando atrás proyectos experimentales para centrarse en lo que considera su prioridad clave: herramientas de productividad para empresas.


    De “todo a la vez” a un enfoque claro

    Durante los últimos meses, OpenAI había diversificado agresivamente su portafolio:

    • El navegador ChatGPT Atlas
    • El modelo de vídeo Sora
    • Un misterioso dispositivo físico con Jony Ive

    Sin embargo, esta estrategia de expansión parece haber terminado por diluir su foco. Según reportes recientes del Wall Street Journal, la dirección ha reconocido que intentar abarcar demasiado los puso a la defensiva frente a competidores más enfocados.


    GPT-5.4: el nuevo eje de la estrategia

    El cambio ya se está materializando con el lanzamiento de GPT-5.4, un modelo diseñado específicamente para:

    • Desarrollo de software
    • Automatización de tareas
    • Sistemas basados en “agentes” de IA

    A diferencia de versiones anteriores, este modelo puede operar como un agente capaz de interactuar con múltiples aplicaciones dentro de un mismo entorno, ejecutando flujos de trabajo completos de forma autónoma, cosa que sus competidores ya hacían.

    Este enfoque acerca a OpenAI a propuestas como OpenClaw, que han ganado popularidad al demostrar el potencial real de los agentes autónomos.


    Presión competitiva: Claude y Gemini avanzan

    El giro estratégico no ocurre en el vacío. Claude de Anthropic ha ganado terreno rápidamente, especialmente entre desarrolladores y empresas, gracias a herramientas como Claude Code.

    Por su parte, Gemini de Google también ha acelerado su evolución, con lanzamientos más frecuentes y modelos cada vez más competitivos.

    Dentro de OpenAI, la situación se percibe como crítica. Fidji Simo, responsable de aplicaciones, llegó a describir el momento como una “alerta roja” para recuperar la confianza del mercado B2B. La situación no es para menos, después de haber sido percibidos como líderes de mercado, en meses recientes en la mente de muchos usuarios han caído al tercer lugar.


    El objetivo: dominar el trabajo, no el entretenimiento

    La nueva estrategia es clara:

    • Priorizar herramientas útiles para empresas
    • Centrarse en desarrolladores
    • Abandonar proyectos considerados “secundarios”

    Esto implica apostar por:

    • Automatización de workflows
    • Integración entre aplicaciones
    • Agentes capaces de ejecutar tareas reales

    Más que competir en experiencias llamativas para el consumidor, OpenAI quiere convertirse en la infraestructura que impulsa el trabajo diario.


    Un reconocimiento implícito

    Este cambio también refleja cierta autocrítica. Algunos proyectos recientes no lograron el impacto esperado, y la compañía parece haber entendido que, en plena carrera por la IA, el foco es esencial.

    Al volver a centrar sus esfuerzos en productividad y agentes autónomos, OpenAI busca recuperar terreno en el segmento más estratégico: empresas y desarrolladores.


    La guerra de la IA entra en una nueva fase

    Con este giro, queda claro que la competencia ya no se define solo por quién tiene el mejor modelo, sino por quién ofrece las herramientas más útiles para trabajar.

    OpenAI apuesta ahora por ser ese proveedor clave. La pregunta es si este cambio llega a tiempo para frenar el avance de sus rivales.

  • Nvidia presenta NemoClaw para la nueva era de agentes autónomos

    Nvidia presenta NemoClaw para la nueva era de agentes autónomos, pero con seguridad empresarial
    Nvidia presenta NemoClaw para la nueva era de agentes autónomos, pero con seguridad empresarial

    Seguridad empresarial para la nueva era de agentes autónomos

    En la conferencia GTC 2026 celebrada en San José, Jensen Huang dejó clara su apuesta por los agentes autónomos de IA, que serán el nuevo paradigma informático. “Este es el nuevo ordenador”, afirmó, comparando su impacto con el de Windows en la era del PC.

    Sin embargo, junto con su potencial revolucionario, estos sistemas han traído importantes riesgos de seguridad. Para resolver este problema, Nvidia ha presentado NemoClaw, un nuevo stack open source diseñado para hacer seguros los agentes autónomos en entornos empresariales.


    El auge (y peligro) de los “claws”

    Los llamados “claws” o agentes de software impulsados por IA, pueden:

    • Acceder a herramientas
    • Interactuar con sistemas
    • Ejecutar tareas complejas de forma autónoma

    Plataformas como OpenClaw han demostrado su enorme potencial, automatizando flujos de trabajo completos con mínima intervención humana.

    Pero esta autonomía también implica riesgos críticos:

    • Acceso a datos sensibles
    • Ejecución de acciones no autorizadas
    • Posibles filtraciones o escaladas de privilegios

    Esto ha frenado su adopción en empresas, donde la seguridad es prioritaria.


    NemoClaw: una capa de protección inteligente

    NemoClaw actúa como intermediario entre los agentes y la infraestructura, añadiendo controles estrictos de seguridad.

    En el centro del sistema está OpenShell, un runtime open source que funciona como un sandbox aislado. Su función es:

    • Interceptar cada comando del agente
    • Verificar permisos en tiempo real
    • Bloquear o detener acciones sospechosas

    Si un agente intenta acceder a datos confidenciales o enviar información a destinos no autorizados, el sistema cancela automáticamente la operación.


    Privacy Router: control total de los datos

    Una de las innovaciones más destacadas es el Privacy Router, que funciona como una “aduana digital” para los datos.

    Este sistema:

    • Analiza todo el contenido antes de enviarlo a modelos externos
    • Detecta información sensible (API keys, tarjetas, secretos empresariales)
    • Anonimiza o bloquea datos automáticamente

    Además, optimiza el uso de recursos:

    • Prioriza modelos locales para tareas simples
    • Utiliza modelos avanzados en la nube solo cuando es necesario

    Seguridad sin complejidad

    A pesar de su sofisticación, Nvidia ha diseñado NemoClaw para ser fácil de instalar, mediante un solo comando.

    Actualmente está disponible en versión alpha y es compatible con múltiples entornos ya que funciona tanto en:

    • PCs con GPUs GeForce RTX
    • Estaciones de trabajo profesionales
    • Sistemas empresariales como DGX

    Un paso clave para la adopción empresarial

    Con NemoClaw, Nvidia aborda uno de los mayores obstáculos de la IA autónoma: la confianza.

    La compañía deja claro su mensaje: los agentes autónomos no solo son inevitables, sino que ya están listos para el mundo empresarial, si cuentan con las protecciones adecuadas.

    En un momento en que la industria avanza hacia sistemas capaces de actuar por sí mismos, soluciones como NemoClaw podrían marcar la diferencia entre una tecnología prometedora y una adoptada masivamente.

  • Oracle presenta Java 26

    Oracle anunció Java 26 con Project Detroit para acelerar la interoperabilidad entre Java, JavaScript y Python
    Oracle anunció Java 26 con Project Detroit para acelerar la interoperabilidad entre Java, JavaScript y Python

    Java 26 incluye Project Detroit para acelerar la interoperabilidad entre Java, JavaScript y Python

    En el marco de JavaOne, Oracle ha anunciado oficialmente Java 26 y lo más interesante de esta nueva versión es Project Detroit, una nueva iniciativa que busca mejorar de forma significativa la interoperabilidad entre Java, JavaScript y Python.

    Está claro que Java perdió el tren de la IA. Los desarrolladores apostaron principalmente por Python y en menor medida por JavaScript para crear aplicaciones con IA. Si bien no hay nada que impide que una aplicación Java explote APIs de IA como los de OpenAI o Google, Java tiene muchos menos frameworks de desarrollo para integrar Java a sus aplicaciones y eso es un problema para la plataforma.

    Por eso, el objetivo de Java 26 es permitir a los desarrolladores utilizar código escrito en esos lenguajes y que usan esos frameworks de los que carece Java para crear nuevas aplicaciones de forma más rápida, eficiente y segura. Uno podría preguntarse porqué los desarrolladores no abandonan simplemente Java y adoptan Python o JavaScript. La respuesta es sencilla, Java sigue siendo un lenguaje de programación mucho más serio que ambas alternativas y mejor diseñado para aplicaciones empresariales.


    Un nuevo enfoque: runtimes nativos dentro de la JVM

    A diferencia de soluciones anteriores, Project Detroit apuesta por integrar directamente los runtimes más utilizados dentro de la máquina virtual de Java:

    • V8 (motor de JavaScript)
    • CPython

    Esto elimina la necesidad de reimplementaciones, como ocurrió con proyectos anteriores como Nashorn, que intentaban recrear JavaScript dentro de Java.

    El resultado:

    • Mejor compatibilidad con ecosistemas reales
    • Menos problemas en casos límite
    • Mayor rendimiento

    El papel clave del FFM API

    Uno de los pilares técnicos de esta mejora es el Foreign Function and Memory API, introducido en Java 22.

    Este API reemplaza al antiguo Java Native Interface (JNI) con un enfoque más moderno y sencillo, permitiendo crear capas muy ligeras para:

    • Llamar código JavaScript desde Java
    • Invocar Java desde otros lenguajes

    Rendimiento y seguridad mejorados

    Según Oracle, el nuevo enfoque ofrece ventajas claras:

    • Mayor velocidad en la ejecución entre lenguajes
    • Aislamiento de memoria entre heaps (Java, V8, CPython)
    • Modelo de seguridad más robusto

    Esto es especialmente relevante en aplicaciones modernas que necesiten combinar código Java con componentes en Python o JavaScript, principalmente para usar la IA.


    Java 26: una versión de transición

    Java 26 es una versión de Java que tendrá un tiempo de vida corto ya que será reemplazada dentro de seis meses por Java 27.

    Entre las novedades de Java 26:

    • Mejoras incrementales en concurrencia estructurada
    • Avances en el Vector API
    • Soporte para HTTP/3

    También marca el fin de una era con la eliminación definitiva de los applets de Java, ya obsoletos.


    Más novedades dentro del ecosistema Java

    Oracle también anunció otros movimientos estratégicos:

    • Project Helidon se integrará en OpenJDK
    • Lanzamiento del Java Verified Portfolio (JVP), un conjunto validado de herramientas empresariales
    • Soporte renovado para JavaFX
    • Integración de Java en notebooks de Visual Studio Code

    Además, la compañía está reforzando su apuesta por la IA con proyectos como:

    • Helidon AI
    • LangChain4j (fuertemente apoyado por IBM)
    • Spring AI

    Java se adapta (tarde) a la era de la IA

    Project Detroit refleja una tendencia clara, ya ningún lenguaje vive en aislamiento. Las aplicaciones modernas combinan múltiples tecnologías, especialmente ante el auge de la inteligencia artificial.

    Al integrar directamente los runtimes más populares, Oracle busca posicionar Java como un actor central en este nuevo paradigma, facilitando la colaboración entre ecosistemas sin sacrificar rendimiento ni compatibilidad.

    En definitiva, más que competir con otros lenguajes, Java apuesta por convivir con ellos de forma nativa y eficiente.

  • Meta impulsa la automatización local con Manus

    Meta impulsa la automatización local con Manus lanzando la aplicación "My Computer"
    Meta impulsa la automatización local con Manus lanzando la aplicación «My Computer»

    Lanza la aplicación My Computer

    La carrera por dominar el escritorio con inteligencia artificial entra en una nueva fase. Meta, tras adquirir la startup Manus, ha lanzado “My Computer”, una aplicación que transforma tu Mac o PC en un agente de IA capaz de ejecutar acciones directamente en tu máquina.

    A diferencia de otros asistentes centrados en la nube, esta propuesta lleva la inteligencia artificial al entorno local, donde realmente viven los archivos, aplicaciones y flujos de trabajo del usuario.


    De chatbot a “motor de acciones”

    Hasta ahora, Manus operaba en un entorno cloud seguro. Con «My Computer», da un salto clave: acceso directo al sistema local.

    En lugar de limitarse a responder preguntas, la IA funciona como un “action engine”, ejecutando comandos en la terminal de tu equipo. Esto le permite:

    • Leer y organizar archivos
    • Editar documentos
    • Lanzar y controlar aplicaciones
    • Automatizar tareas repetitivas

    Aunque Manus se apoya en la línea de comandos, el usuario solo necesita dar instrucciones en lenguaje natural.


    Automatización real del trabajo diario

    El enfoque práctico es uno de sus puntos más fuertes. Por ejemplo:

    • Un usuario puede pedir a la IA que organice miles de fotos en carpetas automáticamente
    • Un contador puede estandarizar nombres de cientos de facturas en segundos

    Lo que antes requería horas de trabajo manual ahora se resuelve con una sola instrucción.


    Desarrollo de software sin escribir código

    El potencial va mucho más allá de tareas simples. My Computer puede utilizar herramientas locales como:

    • Python
    • Node.js
    • Xcode

    En pruebas internas, Manus fue capaz de crear una app completa para macOS, incluyendo código, depuración y empaquetado, en apenas 20 minutos, todo desde la terminal y sin intervención manual directa.


    Aprovechando el hardware local

    Una de sus características más innovadoras es el uso del hardware inactivo:

    • Se pueden usar los GPUs para entrenar modelos
    • Equipos antiguos pueden convertirse en asistentes de IA 24/7

    Además, la integración con servicios como Google Calendar y Gmail permite conectar el entorno local con la nube.

    Un ejemplo práctico: pedir desde el móvil un archivo guardado en tu ordenador de casa y que la IA lo encuentre y lo envíe automáticamente por correo.


    Seguridad bajo control del usuario

    Dar acceso a la terminal no está exento de riesgos, y por ello el sistema incluye controles estrictos:

    • Cada comando requiere aprobación explícita
    • Opción de permitir una vez o siempre
    • Gestión granular de carpetas accesibles

    También permite programar tareas automáticas seguras, como:

    • Limpiar la carpeta de descargas
    • Generar reportes periódicos

    Disponibilidad inmediata

    My Computer ya está disponible para:

    • macOS
    • Windows

    Los usuarios solo necesitan instalar la app de Manus, iniciar sesión y autorizar el acceso a sus archivos locales.


    El siguiente paso en la evolución de la IA personal

    Con este lanzamiento, Meta y Manus apuestan por un cambio clave: pasar de asistentes conversacionales a sistemas capaces de ejecutar acciones reales en tu entorno.

    La propuesta es clara: no se trata solo de hablar con la IA, sino de convertirla en una extensión operativa de tu ordenador. Un motor que no solo entiende tus ideas, sino que también las lleva a cabo.

  • Dos décadas de Amazon S3

    Dos décadas de Amazon S3, el motor invisible de Internet creado por AWS
    Dos décadas de Amazon S3, el motor invisible de Internet creado por AWS

    De un lanzamiento discreto al motor invisible de Internet

    Hace 20 años, el 14 de marzo de 2006, Amazon Web Services lanzó silenciosamente un servicio que cambiaría para siempre la industria tecnológica: Amazon S3. Sin demos, sin ejemplos de código y con apenas un breve anuncio, el servicio ofrecía algo aparentemente simple: almacenar datos (PUT) y recuperarlos (GET) utilizando un API REST.

    Lo que parecía una herramienta básica acabaría convirtiéndose en uno de los pilares fundamentales de Internet moderno.


    De un petabyte a cientos de exabytes

    En sus inicios, S3 contaba con:

    • ~1 petabyte de capacidad total
    • 400 nodos de almacenamiento
    • Objetos de hasta 5 GB
    • Un coste de $0.15 por GB

    Actualmente, la escala es difícil de imaginar:

    • Más de 500 billones de objetos almacenados
    • Más de 200 millones de solicitudes por segundo
    • Cientos de exabytes de datos distribuidos en 39 regiones
    • Un tamaño máximo por objeto de 50 TB

    El coste también se ha desplomado a poco más de $0.02 por GB, una reducción del 85%, propiciada por el crecimiento de la capacidad de los discos duros y la reducción del costo por GB. Además, herramientas como S3 Intelligent-Tiering han permitido ahorrar miles de millones a los clientes.


    El impacto cultural: el “backend” del mundo digital

    S3 no solo creció en tamaño, sino en influencia. Se convirtió en la infraestructura invisible detrás de servicios globales como:

    • Netflix
    • Spotify

    Gracias a su escalabilidad prácticamente ilimitada, permitió que estas plataformas redefinieran cómo consumimos contenido.

    Además, su API se transformó en un estándar de facto. Hoy en día, no hay proveedor de nube que no ofrezca soluciones 100% compatibles con S3, replicando su modelo y convenciones, generalmente a menor costo.


    Desafíos y evolución técnica

    Operar a esta escala no ha estado exento de problemas. Uno de los incidentes más recordados fue la caída de 2017 en la región US-EAST-1, que afectó a buena parte de Internet.

    También hubo retos de seguridad: en sus primeros años, configuraciones abiertas por defecto provocaron filtraciones de datos hasta que AWS endureció sus políticas.

    Para garantizar fiabilidad, S3 está diseñado con 11 nueves de durabilidad (99.999999999%), lo que logra gracias a:

    • Sistemas automáticos de verificación y reparación
    • Arquitectura de microservicios
    • Uso de métodos formales para validar código

    En los últimos años, AWS ha reescrito partes críticas del sistema en Rust, mejorando rendimiento y eliminando potenciales errores relacionados con el uso de la memoria.

    Y quizás lo más impresionante es que el código escrito en 2006 que usaba S3, sigue funcionando hoy sin cambios, manteniendo una compatibilidad total.


    La base de la era de la IA

    El futuro de S3 va mucho más allá del almacenamiento tradicional. AWS quiere convertirlo en la base universal para datos e inteligencia artificial.

    Entre las nuevas capacidades destacan:

    • Tablas gestionadas con Apache Iceberg (S3 Tables)
    • Gestión centralizada de metadatos
    • Almacenamiento nativo de vectores (S3 Vectors)

    Este último es clave para casos como búsqueda semántica y sistemas de IA con RAG (Retrieval-Augmented Generation). Solo en unos meses de 2025, se crearon más de 250,000 índices y se almacenaron más de 40,000 millones de vectores.


    Un estándar que define la industria

    La visión es de AWS es clara. El objetivo es almacenar cualquier tipo de dato una sola vez y procesarlo directamente en S3, eliminando la necesidad de mover información entre sistemas.

    Esto no solo simplifica la arquitectura técnica, sino que también refuerza el papel de AWS como eje central del ecosistema de datos.


    De herramienta simple a infraestructura global

    En dos décadas, S3 ha pasado de ser una utilidad básica a convertirse en la columna vertebral del mundo digital.

    Su éxito demuestra una idea poderosa: cuando la infraestructura funciona de forma invisible y fiable, los desarrolladores pueden centrarse en innovar. Y eso, en última instancia, es lo que ha permitido construir gran parte de Internet tal y como lo conocemos hoy.

  • Intel lleva la renovación “Arrow Lake” a las laptops con los nuevos Core Ultra 200HX Plus

    La renovada arquitectura Arrow Lake de Intel llega a las PCs portátiles de gama alta
    La renovada arquitectura Arrow Lake de Intel llega a las PCs portátiles de gama alta

    Nuevos procesadores para portátiles de gama alta

    Intel ha anunciado la llegada de su arquitectura renovada Arrow Lake al segmento móvil con la nueva serie Core Ultra 200HX Plus, una familia de procesadores diseñada para portátiles de alto rendimiento diseñados para gaming, creación de contenido y estaciones de trabajo.


    Nuevos modelos para la gama alta

    La serie HX, identificada por Intel como su línea más potente para portátiles, suma dos nuevos buques insignia:

    • Intel Core Ultra 9 290HX Plus
    • Intel Core Ultra 7 270HX Plus

    Estos chips están pensados para usuarios exigentes que buscan rendimiento de escritorio en formato portátil.


    Especificaciones y mejoras clave

    El modelo tope de gama, Core Ultra 9 290HX Plus, incorpora:

    • 24 núcleos y 24 hilos

    Mientras que el 270HX Plus ofrece:

    • 20 núcleos y 20 hilos

    A diferencia de generaciones anteriores, el salto no se centra en aumentar frecuencias o núcleos, sino en optimizar la arquitectura interna. La mejora más destacada es un incremento de 900 MHz en la comunicación interna (die-to-die), lo que:

    • Reduce la latencia
    • Mejora la respuesta del sistema
    • Ofrece una experiencia de juego más fluida

    Conectividad de última generación

    Los nuevos chips también integran tecnologías avanzadas para portátiles premium:

    • Soporte para Wi-Fi 7
    • Bluetooth 5.4
    • Thunderbolt 5 con hasta 80 Gbps de ancho de banda bidireccional

    Esto permite transferencias ultrarrápidas y compatibilidad con periféricos de alto rendimiento.


    Un rendimiento con mejoras limitadas

    Frente a su predecesor directo, el Intel Core Ultra 9 285HX, el nuevo 290HX Plus ofrece:

    • +8% en gaming
    • +7% en rendimiento mononúcleo (Cinebench 2026)

    Sin embargo, el salto es mucho más notable frente a generaciones anteriores como el Intel Core i9-12900HX:

    • +62% en gaming a 1080p
    • +30% en aplicaciones creativas

    Optimización por software

    Los nuevos procesadores son compatibles con Intel Binary Optimization Tool, una herramienta presentada recientemente que puede mejorar el rendimiento para:

    • Videojuegos
    • Aplicaciones creativas

    optimizando determinadas cargas de trabajo.


    Disponibilidad en portátiles premium

    Los primeros equipos con estos procesadores ya están llegando al mercado, encabezados por la línea Alienware de Dell:

    • Alienware 16 Area-51
    • Alienware 18 Area-51
    • Alienware 16X Aurora

    A lo largo del año se sumarán modelos de otros fabricantes como:

    • Acer (Predator Helios Neo AI)
    • ASUS (ROG Strix Scar 18)
    • Lenovo (Legion y Legion Pro)
    • HP (HyperX Omen)
    • Razer, MSI y otros fabricantes especializados

    Rendimiento móvil cada vez más cercano al escritorio

    Con la serie Core Ultra 200HX Plus, Intel refuerza su apuesta por llevar potencia extrema a portátiles, reduciendo cada vez más la brecha entre laptops y computadoras de sobremesa.

    Aunque las mejoras respecto a la generación anterior son moderadas, la combinación de menor latencia, mejor conectividad y optimización por software posiciona a estos chips como una opción sólida para quienes buscan máximo rendimiento sin renunciar a la movilidad.

  • Apple estrena las actualizaciones de seguridad en segundo plano (BSI)

    Apple estrena las actualizaciones de seguridad en segundo plano para iPhone, iPad y Mac
    Apple estrena las actualizaciones de seguridad en segundo plano para iPhone, iPad y Mac

    El sistema BSI está disponible para iPhone, iPad y Mac

    Apple ha comenzado a desplegar su primera oleada pública de parches de seguridad mediante el nuevo sistema de Background Security Improvements (BSI), diseñado para reforzar la seguridad de sus dispositivos sin requerir de actualizaciones completas del sistema.


    Un nuevo enfoque para la seguridad continua

    Los BSI sustituyen a las anteriores “Rapid Security Responses” y tienen como objetivo corregir vulnerabilidades críticas de forma rápida, ligera y casi invisible para el usuario.

    Este nuevo mecanismo permite a Apple actualizar componentes clave como:

    • Safari
    • El motor de rendering de Safari, WebKit
    • Librerías esenciales del sistema

    Todo ello sin necesidad de descargar versiones completas del sistema operativo.


    Qué corrige la primera actualización

    El primer parche BSI aborda una vulnerabilidad en WebKit relacionada con la API de Navigation.

    Según Apple, el fallo permitía que contenido web malicioso pudiera eludir la política de mismo origen (Same Origin Policy o SOP).

    La Política de Mismo Origen es un mecanismo de seguridad fundamental del navegador que restringe la forma en que los scripts (creados en JavaScript) de un origen (protocolo, dominio y puerto) interactúan con los recursos de otro, impidiendo que los sitios web maliciosos lean o modifiquen datos en otros sitios.

    La solución implementa controles más estrictos para evitar este tipo de ataques.


    Versiones disponibles

    La actualización ya está disponible para los principales sistemas:

    • iOS 26.3.1 (a)
    • iPadOS 26.3.1 (a)
    • macOS Tahoe 26.3.1 (a)
    • macOS Tahoe 26.3.2 (a)

    La diferencia en versiones de macOS se debe al nuevo equipo MacBook Neo, que utiliza actualmente una versión más reciente del sistema.


    Instalación automática (y manual)

    Apple ha simplificado al máximo la gestión de estos parches.

    • Automático:
      Si tienes activada la opción de actualizaciones automáticas, los BSI se instalarán en segundo plano sin intervención.
    • Manual:
      • En iPhone/iPad: Ajustes → Privacidad y seguridad → Instalar
      • En Mac: Menú Apple  → Ajustes del sistema → Privacidad y seguridad → Instalar

    Seguridad con red de protección

    Apple ha incorporado medidas de seguridad adicionales:

    • Si no instalas el parche, se incluirá en la próxima actualización completa
    • Si un BSI causa problemas, Apple puede retirarlo temporalmente y reemplazarlo por una versión corregida

    Una tendencia hacia actualizaciones invisibles

    Con este lanzamiento, Apple busca reforzar la seguridad de sus dispositivos, la cual ya no depende de grandes actualizaciones ocasionales, sino de parches continuos, rápidos y casi imperceptibles. Por este mismo motivo, Google anuncio recientemente que iba a actualizar Chrome cada dos semanas.

    Los Background Security Improvements marcan un paso importante hacia sistemas más seguros por defecto, donde las vulnerabilidades se corrigen en tiempo real sin interrumpir la experiencia del usuario.

  • OpenAI lanza GPT-5.4 mini y nano

    OpenAI lanza GPT-5.4 mini y nano. Modelos más rápidos y eficientes para cargas masivas.
    OpenAI lanza GPT-5.4 mini y nano. Modelos más rápidos y eficientes para cargas masivas.

    Modelos más rápidos y eficientes para cargas masivas

    OpenAI continúa ampliando su ecosistema de inteligencia artificial con el lanzamiento de GPT-5.4 mini y GPT-5.4 nano, dos versiones optimizadas de su modelo principal GPT-5.4.

    Tras la llegada en marzo de GPT-5.4, centrado en tareas exigentes como programación avanzada y análisis de datos, estos nuevos modelos están diseñados para ofrecer alto rendimiento con mayor velocidad y menor coste, especialmente en entornos de alto volumen y flujos de trabajo con múltiples agentes.


    GPT-5.4 mini: alto rendimiento con menor latencia

    GPT-5.4 mini representa un salto importante en modelos compactos.

    Es más del doble de rápido que su predecesor, GPT-5 mini, y mejora significativamente en:

    • Programación
    • Razonamiento
    • Uso de herramientas
    • Comprensión multimodal (texto, imagen y audio)

    Además, se acerca al rendimiento del modelo completo en evaluaciones exigentes como:

    • SWE-Bench Pro
    • OSWorld-Verified

    El modelo está especialmente diseñado para tareas donde la velocidad es clave, como:

    • Iteración rápida en código
    • Depuración (debugging)
    • Navegación de bases de código
    • Generación de interfaces

    También destaca en tareas de “uso de computadora”, interpretando capturas de pantalla y ejecutando acciones de forma eficiente.


    GPT-5.4 nano: máxima eficiencia a gran escala

    Para escenarios donde el coste y la velocidad son prioritarios, OpenAI introduce su nuevo modelo en versión nano.

    Este modelo está optimizado para tareas más simples pero de gran volumen, como:

    • Clasificación de datos
    • Extracción de información
    • Ranking de contenido

    También es ideal como motor para subagentes, encargados de tareas específicas dentro de sistemas más complejos.


    El auge de los sistemas multi-modelo

    Uno de los cambios más importantes que acompañan este lanzamiento es el enfoque hacia arquitecturas distribuidas.

    En lugar de depender de un único modelo grande, los desarrolladores pueden ahora construir sistemas donde:

    • Un modelo principal (como GPT-5.4) coordina y toma decisiones
    • Modelos más pequeños (mini o nano) ejecutan tareas específicas en paralelo

    Esto permite:

    • Procesar grandes volúmenes de datos
    • Reducir la latencia
    • Optimizar costos

    Disponibilidad de GPT-5.4 mini y nano en ChatGPT y a través del API

    OpenAI ha hecho que estos modelos estén disponibles en múltiples entornos:

    En ChatGPT

    • GPT-5.4 mini está disponible incluso para usuarios gratuitos mediante la opción “Thinking”
    • También funciona como alternativa rápida cuando se alcanzan los límites del modelo principal

    En herramientas de desarrollo

    • Integración con Codex (CLI, IDE, app web)
    • Ideal para tareas de programación más simples a menor costo

    En la API de OpenAI

    Ambos modelos están disponibles para desarrolladores:

    • GPT-5.4 mini
      • Ventana de contexto de hasta 400.000 tokens
      • Soporte para texto e imagen
      • Funciones avanzadas como búsqueda web, archivos y uso de herramientas
    • GPT-5.4 nano
      • El modelo más económico
      • Optimizado para tareas masivas y automatizadas

    Más velocidad sin sacrificar inteligencia

    Con los nuevos modelos mini y nano, OpenAI refuerza una tendencia clara en la industria, a saber que la inteligencia artificial no solo debe ser potente, sino también rápida, escalable y accesible.

    Este lanzamiento permite a desarrolladores y empresas equilibrar rendimiento, coste y velocidad, abriendo la puerta a sistemas más complejos, reactivos y eficientes.

  • Nvidia presenta DLSS 5: el “momento GPT” para los gráficos de videojuegos

    Jensen Huang, el CEO de Nvidia, quien presento la nueva tecnologia DLSS 5
    Jensen Huang, el CEO de Nvidia, quien presento la nueva tecnologia DLSS 5

    Nvidia quiere redefinir la forma en que se renderizan los videojuegos. Durante la conferencia Nvidia GTC de 2026, el CEO Jensen Huang presentó DLSS 5, la próxima generación de su tecnología de escalado basada en inteligencia artificial.

    Huang describió este avance como “el momento GPT para los gráficos”, sugiriendo que podría representar el mayor salto tecnológico desde la introducción del ray tracing en tiempo real en 2018. Este anuncio lo hizo el mismo día en el que Sony lanzó el PSSR 2 para PlayStation 5 Pro.


    De reescalar imágenes a generar gráficos

    Las versiones anteriores de Deep Learning Super Sampling (DLSS) utilizaban redes neuronales principalmente para:

    • Escalar imágenes desde resoluciones más bajas
    • Generar fotogramas adicionales para mejorar el rendimiento

    DLSS 5 da un paso más allá.

    Según Nvidia, la nueva tecnología utiliza una tecnología llamada “neural rendering”, que combina datos del motor gráfico, como geometría 3D, colores y vectores de movimiento, con un modelo de IA capaz de generar detalles visuales realistas en tiempo real.

    Esto permite mejorar automáticamente aspectos como:

    • Iluminación compleja
    • Materiales realistas
    • Detalles de piel, cabello y tejidos

    Demostraciones con gráficos hiperrealistas

    Durante la presentación, Nvidia mostró comparaciones en tiempo real con DLSS 5 activado y desactivado en varios juegos populares, entre ellos:

    • Resident Evil: Requiem
    • Starfield
    • Hogwarts Legacy
    • EA Sports FC

    En los ejemplos, los personajes pasaban de tener rostros planos y artificiales a modelos mucho más realistas con:

    • Reflejos naturales en los ojos
    • Imperfecciones en la piel
    • Cabello y barba con hebras individuales

    La IA también puede generar efectos complejos como subsurface scattering, el fenómeno por el cual la luz penetra ligeramente en la piel antes de reflejarse.


    Renderizado cinematográfico, en tiempo real

    Normalmente, lograr ese nivel de realismo requiere enormes tiempos de procesamiento. Los efectos visuales de cine pueden tardar horas en renderizar un solo fotograma, y los generadores de video por IA como Sora necesitan varios segundos o minutos para producir resultados.

    DLSS 5, en cambio, realiza este proceso en tiempo real, generando imágenes en apenas 16 milisegundos, lo que permite jugar en resoluciones de hasta 4K.


    Controversia entre desarrolladores y jugadores

    El anuncio, sin embargo, ha generado debate.

    A diferencia de versiones anteriores, DLSS 5 no solo mejora la imagen existente, sino que genera nuevos detalles visuales mediante IA. Algunos críticos argumentan que esto podría alterar la intención artística original de los desarrolladores.

    Otros comparan el resultado con filtros de IA que “embellecen” imágenes en fotografía y video, algo que algunos jugadores consideran artificial.

    También se cuestionó la forma en que Nvidia mostró las comparaciones: las demostraciones enfrentaban DLSS 5 contra versiones de los juegos sin tecnologías de escalado activadas, lo que dificulta medir la mejora real frente a configuraciones máximas con versiones anteriores como DLSS 4.5.


    Un enorme desafío de hardware

    Ejecutar un modelo generativo de video en tiempo real exige una potencia de cálculo considerable.

    Durante la demostración en GTC, Nvidia utilizó dos tarjetas gráficas GeForce RTX 5090:

    • Una dedicada a renderizar el juego
    • Otra dedicada exclusivamente a ejecutar el modelo de DLSS 5

    La compañía asegura que cuando la tecnología llegue al mercado este otoño podrá funcionar con una sola GPU, aunque probablemente seguirá requiriendo hardware de gama alta.


    El futuro de los gráficos impulsados por IA

    Como en versiones anteriores de DLSS, los desarrolladores deberán integrar manualmente la tecnología en sus juegos.

    Varios grandes editores ya han confirmado su interés, incluyendo:

    • Bethesda Softworks
    • Capcom
    • NCSoft
    • Tencent
    • Warner Bros. Games

    Con DLSS 5, Nvidia apuesta claramente por un futuro donde los videojuegos mezclen gráficos 3D tradicionales con generación visual mediante inteligencia artificial.

    La gran incógnita ahora es si los jugadores aceptarán estos píxeles generados por IA como una evolución natural del medio o si los verán como una interferencia artificial en el arte del videojuego.

  • El Computer History Museum festeja el 50 aniversario de Apple

    Para todos aquellos que hubieran querido poder participar pero que no pudieron, aquí les dejamos el video del evento.

    Apple celebrará este 1 de abril su 50 aniversario y lo esta celebrando en grande. Sin embargo, la fecha también es importante para la industria y por eso el Computer History Museum situado en Mountain View, California, no muy lejos de la sede de la compañía también decidió organizar un evento para recordar esta fecha tan destacada.