gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • Apple abrirá Siri a chatbots de IA rivales en iOS 27

    Apple abrirá Siri a chatbots de IA rivales en iOS 27
    Apple abrirá Siri a chatbots de IA rivales en iOS 27

    El fin de la exclusividad de ChatGPT

    Según Marc Gurman, de Bloomberg, Apple prepara uno de los cambios más importantes en la historia de Siri. Durante la Worldwide Developers Conference(WWDC) del 8 de junio de 2026, la compañía presentaría iOS 27, una actualización que permitirá integrar chatbots de IA de terceros directamente con el asistente.

    Este movimiento marcaría el fin de la exclusividad de ChatGPT dentro del ecosistema Apple y abriría la puerta a una nueva era de inteligencia artificial en iPhone, iPad y Mac.


    Siri será compatible con múltiples IA

    Desde la llegada de Apple Intelligence en iOS 18, OpenAI disfrutaba de una integración exclusiva de ChatGPT con Siri para resolver consultas complejas.

    Sin embargo, reportes recientes indican que Apple abandonará este modelo cerrado para adoptar un enfoque más abierto. Con iOS 27, los usuarios podrán conectar Siri con múltiples servicios de IA, entre ellos:

    El objetivo es crear un ecosistema competitivo donde el usuario elija qué IA usar según sus necesidades.


    Así funcionará el nuevo sistema “Extensions”

    Apple implementará un nuevo sistema basado en APIs llamado Extensions, disponible en:

    • iOS 27
    • iPadOS 27
    • macOS 27

    Si el usuario tiene instalada una app de IA compatible, podrá asignarla a tareas específicas dentro de Siri. Por ejemplo:

    • Usar Claude para programación
    • Usar otra IA para búsquedas web
    • Combinar varios asistentes según el tipo de consulta

    Todo se gestionará desde un nuevo menú en Configuración dentro de Apple Intelligence y Siri. Desde ahí, Apple ofrecerá enlaces directos a la App Store para descargar chatbots compatibles.

    Este cambio también abre una nueva fuente de ingresos para Apple mediante suscripciones de IA dentro de la App Store.


    El fin de la exclusividad con OpenAI

    El nuevo modelo pone fin a la relación exclusiva entre Apple y OpenAI.

    Este cambio también llega tras la presión del sector. La startup xAI de Elon Musk incluso presentó una demanda contra Apple y OpenAI, acusándolos de intentar dominar el mercado de IA.

    Con iOS 27, Apple permitirá que cualquier desarrollador integre su chatbot con Siri, siempre que cumpla con las nuevas APIs.


    La estrategia doble de Apple en inteligencia artificial

    Abrir Siri no significa que Apple abandone su propia IA.

    Los dispositivos seguirán usando modelos propios como sistema predeterminado mediante:

    • Procesamiento en el dispositivo
    • Private Cloud Compute para privacidad

    Además, Apple mantiene una relación estratégica con Google. Aunque Gemini podrá integrarse como app externa, Apple también usaría versiones optimizadas de sus modelos para mejorar sus propios sistemas de Apple Intelligence.

    Entre las funciones futuras se esperan:

    • Mayor control dentro de apps
    • Capacidades avanzadas de “Personal Intelligence”
    • Una posible app independiente de Siri con interfaz tipo chatbot

    Un despliegue gradual

    Apple ya comenzó este camino con iOS 26.4, que abrió CarPlay a chatbots de terceros.

    La estrategia de iOS 27 muestra el nuevo enfoque de Apple, mantener el control del ecosistema mientras permite a los usuarios elegir las mejores herramientas de IA disponibles.

    La guerra de los asistentes inteligentes en el iPhone acaba de comenzar.

  • LeWorldModel de Yann LeCun nos acerca a una IA que entiende el mundo físico

    IA
    LeWorldModel de Yann LeCun nos acerca a una IA que entiende el mundo físico

    Más allá de los LLM

    Durante años, el pionero de la inteligencia artificial Yann LeCun ha criticado la obsesión de la industria por los modelos de lenguaje (LLM). Según él, sistemas como ChatGPT pueden imitar el lenguaje, pero no comprenden el mundo real ni pueden planificar de forma auténtica.

    Su apuesta ha sido otra, crear World Models, una nueva clase de modelos de IA capaces de entender la física, predecir dinámicas del mundo real e impulsar la próxima generación de robots.

    Ahora, ese objetivo acaba de dar un salto enorme con LeWorldModel (LeWM), una investigación presentada en 2026 por investigadores de un consorcio de Mila, New York University, Samsung SAIL y Brown University, que incluía a Yann LeCun.


    IA que aprende física directamente de píxeles

    El gran avance de LeWorldModel es que demuestra que una IA puede aprender leyes físicas sin sensores complejos ni supercomputadoras, solo a partir de imágenes.

    El sistema pertenece a la familia de arquitecturas JEPA (Joint-Embedding Predictive Architectures), que predicen la estructura de una escena en un «espacio latente» en lugar de generar píxeles directamente.

    Hasta ahora, estos modelos sufrían problemas graves:

    • Colapso de representación (dejaban de predecir correctamente)
    • Entrenamiento complejo y poco estable
    • Dependencia de múltiples pérdidas y supervisión externa

    LeWorldModel simplifica radicalmente el proceso.


    Entrenamiento estable con solo dos funciones de pérdida

    La clave del avance está en su diseño minimalista:

    • Next-Embedding Predictive Autoregression (NEPA)
    • Un nuevo regularizador llamado SIGReg

    Este regularizador fuerza que el espacio latente tenga una distribución gaussiana, evitando que el modelo “haga trampa” o colapse.

    Resultado, el número de hiperparámetros baja de seis a solo uno.


    Sorprendente eficiencia: solo 15 millones de parámetros

    Mientras los LLM actuales tienen cientos de miles de millones de parámetros, LeWorldModel funciona con apenas 15 millones.

    Esto permite:

    • Entrenar el modelo en tan solo unas horas
    • Usar una sola GPU
    • Planificar únicamente en base a imágenes

    El modelo codifica cada fotograma como un token de 192 dimensiones y puede planificar acciones 48 veces más rápido que modelos más pesados como DINO-WM.

    Un ejemplo:

    • DINO-WM tarda 47 segundos en planificar
    • LeWM lo hace en 1 segundo

    Pruebas de “intuición física” para la IA

    Para validar que realmente comprende el mundo, el modelo fue evaluado en múltiples tareas:

    • Navegación en entornos 2D
    • Control de brazos robóticos
    • Manipulación de objetos
    • Pick & place en 3D

    Los resultados fueron sorprendentes:

    • Superó a modelos base en varias pruebas
    • Rivalizó con modelos mucho más grandes
    • Detectó eventos físicamente imposibles mediante pruebas de “violación de expectativas”

    Por ejemplo, el sistema identificó como anómalos eventos como objetos moviéndose contra la gravedad.


    El impacto en la robótica y el futuro de la IA

    Aunque aún no está listo para robots domésticos, LeWorldModel es una prueba de concepto clave para el futuro de la IA física.

    El proyecto también está ligado a AMI Labs, la startup fundada en Francia por LeCun en 2026 y valorada en 3,500 millones de dólares.

    Si un modelo tan pequeño puede aprender conceptos básicos de espacio, gravedad y movimiento, el futuro de la robótica eficiente y accesible podría estar más cerca de lo que imaginamos.


    El inicio de una nueva generación de IA

    LeWorldModel demuestra que la evolución de la inteligencia artificial no dependerá únicamente de modelos gigantes y centros de datos masivos.

    El siguiente gran salto podría venir de sistemas más ligeros, eficientes y capaces de comprender el mundo físico.

  • Nace cq, el “Stack Overflow para agentes de IA”

    Nace cq, el “Stack Overflow para agentes de IA”, impulsado por Mozilla
    Nace cq, el “Stack Overflow para agentes de IA”, impulsado por Mozilla

    Un nuevo proyecto de Mozilla

    Durante más de una década, Stack Overflow fue la enciclopedia del desarrollo de software. En su pico de 2014 superaba las 200,000 preguntas mensuales, pero para diciembre de 2025 la cifra cayó a tan solo 3,862. El principal responsable ya lo conocemos. Los modelos de lenguaje que absorbieron ese conocimiento y cambiaron la forma en que los desarrolladores resuelven dudas.

    Actualmente, herramientas como ChatGPT, Claude, Gemini y GitHub Copilot responden preguntas al instante. Pero este avance ha creado un nuevo problema, a saber que los agentes de IA trabajan aislados y repiten los mismos errores una y otra vez.


    El problema oculto de los agentes de IA

    Aunque los agentes son cada vez más capaces, no comparten lo que aprenden.

    Cada día se enfrentan a obstáculos repetidos:

    • Integraciones de APIs complicadas
    • Configuraciones CI/CD problemáticas
    • Limitaciones de frameworks sin documentar

    Sin memoria compartida, cada agente debe experimentar desde cero, gastando cómputo y tokens para resolver problemas ya solucionados por otros.


    Qué es cq y por qué importa

    El ingeniero Peter Wilson presentó cq, un proyecto open source anunciado en marzo de 2026 que busca convertirse en el “Stack Overflow de los agentes de IA”.

    El nombre proviene de colloquy (intercambio de ideas) y del código de radio “CQ”, que significa “cualquier estación, responda”.

    El objetivo es crear una memoria colectiva para agentes de programación.


    Así funciona el “commons” de conocimiento

    Antes de ejecutar una tarea, un agente consulta el repositorio común de cq.
    Si otro agente ya resolvió el problema, puede reutilizar la solución de inmediato.

    Cuando descubre algo nuevo, el agente devuelve esa información como una unidad de conocimiento, que incluye:

    • Problema
    • Solución
    • Contexto de ejecución
    • Nivel de confianza

    La confianza crece cuando múltiples agentes confirman que la solución funciona en distintos entornos.


    La falta de confianza, el gran reto de la IA

    El proyecto llega en un momento clave:

    • 84% de desarrolladores usan o planean usar IA
    • 46% no confía plenamente en sus resultados

    cq busca cerrar esa brecha mediante consenso entre agentes, en lugar de depender de la respuesta de un único modelo.


    Riesgos y preocupaciones de seguridad

    La comunidad de Hacker News ya ha detectado riesgos potenciales importantes. Por ejemplo, si los agentes implementan código del repositorio público, podrían introducirse backdoors o scripts maliciosos.

    Por ello, Mozilla enfatiza que el proyecto aún es experimental.


    Un proyecto abierto y en evolución

    El equipo ha publicado un prototipo funcional en GitHub con:

    • Plugins para Claude Code y OpenCode
    • Servidor MCP para conocimiento local
    • API para equipos
    • Interfaz “human-in-the-loop” para supervisión

    Actualmente, Mozilla usa cq internamente para mejorar el sistema antes de su adopción general.


    El futuro del conocimiento en la era de la IA

    La industria está en una encrucijada. ¿Se debe permitir que unas pocas empresas definan cómo se usa la IA o se deben construir estándares abiertos que beneficien a todos?

    Proyectos como cq apuntan a una nueva generación de intercambio de conocimiento, diseñada no solo para humanos, sino también para máquinas. La próxima “Stack Overflow” podría no estar hecha para programadores, sino para agentes de inteligencia artificial.

  • TurboQuant, la solución de Google para la crisis de memoria en la IA

    TurboQuant, la solución de Google para la crisis de memoria en la IA
    TurboQuant, la solución de Google para la crisis de memoria en la IA

    El consumo de memoria en el entrenamiento de la IA es un problema

    La inteligencia artificial enfrenta un problema crítico, a saber su enorme consumo de memoria RAM. El auge de la IA generativa ha disparado la demanda global de memoria, elevando precios hasta 5 veces y presionando a toda la industria tecnológica.

    Ahora, Google propone una solución radicalmente distinta con TurboQuant. El objetivo es reducir drásticamente el uso de memoria sin sacrificar rendimiento.


    El problema: la memoria como cuello de botella

    Los modelos LLM requieren RAM por dos razones principales:

    1. Cargar sus parámetros (decenas o cientos de GB)
    2. Mantener un espacio de trabajo activo llamado KV cache

    Este KV cache almacena información de contexto para evitar recalcular cada paso. Pero a medida que crecen las conversaciones o los documentos, el consumo de memoria se dispara, generando un cuello de botella crítico.

    Las soluciones tradicionales de compresión (cuantización) ayudan, pero añaden “sobrecarga” al necesitar datos adicionales para funcionar, lo que reduce su eficiencia real.


    TurboQuant propone compresión extrema sin pérdida

    TurboQuant introduce un enfoque innovador basado en dos técnicas clave:

    PolarQuant: compresión basada en geometría

    Convierte datos de coordenadas cartesianas a coordenadas polares, reduciendo la complejidad y eliminando la necesidad de cálculos adicionales. Esto permite comprimir información sin añadir sobrecarga.

    QJL (Johnson-Lindenstrauss cuantizado)

    Actúa como un corrector matemático que, con solo un bit adicional, mantiene la precisión del modelo y elimina errores derivados de la compresión extrema.


    Hasta 6x menos memoria y más velocidad

    En pruebas con modelos como Gemma y Mistral, los resultados son contundentes:

    • Reducción del consumo de memoria de hasta 6 veces
    • Aceleración de rendimiento de hasta 8x en GPUs como NVIDIA H100
    • Compresión del KV cache hasta solo 3 bits
    • Sin necesidad de reentrenar modelos

    Además, mantiene precisión perfecta en benchmarks como:

    • LongBench
    • ZeroSCROLLS
    • Pruebas “needle in a haystack”

    Impacto en la industria tecnológica

    Si TurboQuant se adopta ampliamente, podría cambiar el equilibrio del mercado:

    • Menor demanda de RAM se traduce en caída de precios
    • Impacto en fabricantes como Samsung, Micron y SK Hynix
    • Mayor presión sobre procesadores y GPUs

    En otras palabras, la industria podría pasar de una “crisis de memoria” a una “crisis de cómputo”.


    El futuro de la eficiencia en IA

    Más allá del hardware, Google demuestra que los avances en IA también dependen de innovaciones matemáticas profundas.

    Con TurboQuant, la compañía no solo reduce costos y mejora rendimiento, sino que redefine cómo se construyen sistemas de IA a gran escala.

    La próxima gran revolución de la inteligencia artificial podría no venir de chips más grandes, sino de algoritmos más inteligentes.

  • Google lanza Lyria 3 Pro, para generar canciones

    Lyria 3 Pro de Google ahora crea canciones completas de hasta 3 minutos
    Lyria 3 Pro de Google ahora crea canciones completas de hasta 3 minutos

    Ahora crea canciones completas de hasta 3 minutos

    Google sigue avanzando en su apuesta por convertirse en el líder absoluto en inteligencia artificial con el lanzamiento de Lyria 3 Pro, una nueva versión de su modelo de generación musical capaz de crear canciones completas de hasta tres minutos. Esto representa un salto significativo frente al límite anterior de solo 30 segundos.

    Pero la mejora no se limita a la duración. La compañía también ha introducido controles mucho más precisos, colocándose al nivel de herramientas como Suno y Udio. Ahora, los usuarios pueden definir la estructura completa de una canción, indicando dónde deben ir las intros, versos, coros o puentes.


    Mayor control creativo con IA

    Según Google, Lyria 3 Pro tiene una comprensión más avanzada de la composición musical, lo que permite experimentar con transiciones complejas y arreglos más sofisticados.

    Los usuarios pueden generar música describiendo:

    • Estado de ánimo
    • Estilo musical
    • Instrumentación específica

    Además, la IA puede crear letras a partir de texto, imágenes o incluso videos, ampliando significativamente las posibilidades creativas.


    Integración total en el ecosistema de Google

    En lugar de lanzar una app independiente, Google está integrando esta tecnología en sus plataformas existentes:

    • Usuarios de Gemini ya pueden generar canciones directamente en el chatbot
    • Empresas pueden acceder vía Vertex AI
    • Los desarrolladores pueden hacerlo a través de Google AI Studio y la API de Gemini
    • Integración en Google Vids para creación de contenido audiovisual

    También destaca su llegada a ProducerAI, una plataforma adquirida recientemente que compite directamente con Suno.


    Derechos de autor bajo la lupa

    El avance tecnológico también reaviva preocupaciones sobre copyright y suplantación de artistas. Ante esto, Google asegura que el modelo fue entrenado únicamente con contenido sobre el que tiene derechos.

    Además:

    • No permite imitar artistas específicos
    • Interpreta nombres como referencia estilística general
    • Verifica coincidencias con contenido existente
    • Incluye marcas de agua invisibles mediante SynthID para identificar contenido generado por IA

    Un mercado saturado de música generada por IA

    El lanzamiento llega en un contexto complejo. Plataformas como Spotify ya enfrentan una avalancha de contenido sintético. Se estima que alrededor de 50,000 canciones generadas por IA se suben diariamente, lo que llevó a eliminar cerca de 75 millones de pistas el año pasado.

    Con Lyria 3 Pro facilitando aún más la creación de canciones completas, la industria musical podría enfrentarse a una nueva ola masiva de contenido automatizado.


    ¿Innovación o saturación?

    Aunque los avances de Google son impresionantes, queda abierta la pregunta clave: ¿realmente necesitamos más generadores de música con IA?

    Con la barrera de entrada cada vez más baja, la creatividad digital vive un auge sin precedentes, pero también un riesgo creciente de saturación. El impacto de herramientas como Lyria 3 Pro podría redefinir no solo cómo se produce la música, sino también cómo se consume en la era de la inteligencia artificial.

  • Apple miniaturiza Gemini, destilando el modelo de Google

    Apple crea la nueva generación de IA en el iPhone, destilando el modelo Gemini
    Apple crea la nueva generación de IA en el iPhone, destilando el modelo Gemini

    Así busca Apple impulsar la nueva generación de IA en el iPhone

    Apple está preparando un salto clave en inteligencia artificial, y lo hará con ayuda de su rival directo, Google. Gracias a un acuerdo estratégico, la compañía ha obtenido acceso avanzado al modelo Gemini, pero en lugar de usarlo tal cual, está aplicando una técnica innovadora para adaptarlo a sus dispositivos.


    La clave: “destilación” de modelos de IA

    Apple está utilizando un método llamado distillation (destilación) para transformar el potente modelo de Gemini en versiones más pequeñas y eficientes.

    El proceso funciona así:

    • Gemini actúa como “maestro”
    • Los modelos de Apple aprenden su lógica y razonamiento
    • Se crean versiones reducidas especializadas

    El resultado son modelos más ligeros que conservan gran parte de la precisión del original, pero consumen muchos menos recursos.


    IA en el dispositivo, una solución más rápida y privada

    El objetivo de Apple es llevar la inteligencia artificial directamente al iPhone.

    Gracias a estos modelos “mini”:

    • Las funciones de IA se ejecutan sin conexión a internet
    • Las respuestas son más rápidas
    • Se reducen costos de procesamiento
    • Se refuerza la privacidad (los datos no salen del dispositivo)

    Esto encaja con la estrategia de Apple Intelligence, centrada en procesamiento local, algo que es posible gracias a los procesadores de Apple.


    Una Siri completamente nueva

    Estos avances serán fundamentales para la próxima evolución de Siri, que llegará con iOS 27.

    La nueva versión permitirá:

    • Resumir documentos
    • Responder preguntas complejas
    • Ejecutar tareas entre apps
    • Generar contenido
    • Interactuar de forma conversacional

    En esencia, Siri pasará de asistente básico a un verdadero chatbot avanzado.


    Ajustando Gemini al ecosistema Apple

    El proceso no ha sido automático.

    Dado que Gemini fue entrenado principalmente para programación y uso general, Apple ha tenido que:

    • Ajustar respuestas
    • Adaptar el modelo a su ecosistema
    • Optimizarlo para experiencias móviles

    El trabajo está liderado por el equipo interno de modelos fundacionales de Apple.


    Una estrategia clara con menos nube y más procesamiento local

    A diferencia de otras compañías, Apple no busca competir directamente con modelos gigantes en la nube.

    Su enfoque es híbrido:

    • Modelos pequeños en el dispositivo (uso diario)
    • Gemini completo para tareas más pesadas

    Esto permite equilibrar rendimiento, privacidad y capacidad.


    El futuro de la IA en el iPhone

    La apuesta de Apple redefine cómo se implementa la inteligencia artificial en dispositivos móviles.

    En lugar de depender totalmente de servidores, la compañía está construyendo un ecosistema donde la IA vive en el bolsillo del usuario.

    Si esta estrategia funciona, el iPhone podría convertirse en uno de los dispositivos más avanzados en IA, sin comprometer privacidad ni velocidad.

  • OpenAI cierra Sora y cancela acuerdo millonario con Disney

    OpenAI cierra Sora y cancela acuerdo millonario con Disney
    OpenAI cierra Sora y cancela acuerdo millonario con Disney

    OpenAI sigue con su giro estratégico hacia la IA empresarial

    OpenAI ha decidido cerrar abruptamente su app de generación de video Sora, apenas seis meses después de su lanzamiento. La decisión no solo marca el fin de una de las apps más virales de IA, sino también la caída de un acuerdo de 1,000 millones de dólares con Disney.


    El fin de Sora: de fenómeno viral a cierre inesperado

    El anuncio se hizo oficial a través de X, donde OpenAI confirmó el cierre de la app y su API para desarrolladores.

    Lanzada en septiembre de 2025 como su segunda app para iPhone, Sora permitía crear videos hiperrealistas a partir de texto o voz.

    Su crecimiento fue explosivo:

    • 1 millón de descargas en menos de dos semanas
    • Top de apps gratuitas en App Store
    • Crecimiento más rápido que ChatGPT

    El problema: deepfakes y pérdida de interés

    El éxito inicial vino acompañado de polémica.

    La plataforma se llenó de:

    • Deepfakes de celebridades
    • Uso indebido de propiedad intelectual
    • Contenido potencialmente engañoso

    Para controlar esto, OpenAI implementó restricciones estrictas:

    • Consentimiento obligatorio para usar rostros reales
    • Limitaciones en contenido protegido

    Estas medidas, aunque necesarias, redujeron el atractivo viral de la app.

    El resultado fue una caída acelerada:

    • Disminución constante de usuarios
    • -32% en descargas en diciembre (según Appfigures)

    Se cae el acuerdo de $1,000 millones con Disney

    El mayor impacto del cierre es la cancelación del acuerdo con Disney.

    El plan incluía:

    • Licenciar personajes icónicos de Disney
    • Integrarlos en Sora
    • Llevar contenido generado por IA a plataformas como Disney+

    El acuerdo, impulsado por el CEO Bob Iger, queda ahora sin efecto ante la caída de la base de usuarios.


    El giro de OpenAI: adiós consumo, hola empresas

    La decisión responde a un cambio estratégico liderado por Sam Altman.

    Tras la creciente presión de modelos como Gemini de Google, OpenAI está priorizando:

    • Productos para profesionales
    • Rentabilidad empresarial
    • Desarrollo de modelos avanzados

    El cierre de Sora permitirá liberar recursos clave (cómputo y talento).


    El futuro: una “superapp” de IA

    Según reportes, OpenAI trabaja en una nueva plataforma que integrará:

    • ChatGPT
    • Herramientas de desarrollo como Codex
    • Un navegador propio (Atlas)

    El objetivo es crear un ecosistema unificado enfocado en aumentar la productividad.


    Sora no desaparece del todo

    Aunque la app se cierra, su tecnología seguirá viva.

    El equipo detrás de Sora se enfocará en:

    • Simulación de entornos (“world simulation”)
    • Aplicaciones en robótica
    • Resolución de tareas físicas en el mundo real

    Una industria en constante cambio

    El caso de Sora refleja la volatilidad del sector de la inteligencia artificial.

    En la carrera por liderar la IA, OpenAI ha dejado claro que está dispuesto a abandonar incluso productos exitosos si no encajan en su estrategia a largo plazo.

    En la era de la IA, la innovación es rápida, pero la permanencia no está garantizada. Esto es especialmente cierto para empresas que no tienen otras fuentes de ingresos. Esto expone a OpenAI mucho más que a otras empresas.

  • IA y empleo: por qué la inteligencia artificial no está destruyendo trabajos, sino transformándolos

    Un estudio confirma que la inteligencia artificial no está destruyendo empleos, sino transformándolos
    Un estudio confirma que la inteligencia artificial no está destruyendo empleos, sino transformándolos

    Aún así, no es una gran noticia

    Durante años, expertos han advertido que la inteligencia artificial eliminaría millones de empleos. Sin embargo, la realidad está resultando más compleja. En lugar de desaparecer, muchos trabajos están evolucionando.

    Un ejemplo claro lo dio Geoffrey Hinton, quien en 2016 aseguró que los radiólogos serían reemplazados por IA. Pues resulta que actualmente ocurre lo contrario, hay más profesionales en ese campo y mejor pagados.

    Ahora un nuevo estudio de Luis Garicano (de la London School of Economics), Jin Li y Yanhui Wu ( ambos de la Universidad de Hong Kong), arroja más luz acerca de los empleos que corren más riesgo.


    El error es confundir tareas con empleos

    Gran parte de las predicciones sobre pérdida de empleo se basan en una idea simple:

    Si la IA puede hacer muchas tareas de tu trabajo, tu empleo está en riesgo.

    Pero esto ignora algo clave: los mercados laborales no pagan tareas, pagan trabajos completos.

    Un estudio reciente de los economistas Luis Garicano, Jin Li y Yanhui Wu propone una nueva forma de entenderlo: los empleos son “paquetes” (bundles) de habilidades y responsabilidades.


    Paquetes “fuertes” vs “débiles”

    El impacto de la IA depende del tipo de trabajo que tengas.

    Trabajos con paquetes de tareas fuertemente integrados

    Son roles donde las tareas están profundamente conectadas:

    • Requieren juicio humano
    • Involucran contexto y responsabilidad
    • No se pueden separar fácilmente

    Ejemplo: médicos, directivos, consultores.

    En estos casos, la IA:

    • No reemplaza al humano
    • Funciona como un asistente
    • Aumenta productividad y valor

    Por eso, muchos profesionales terminan ganando más, no menos.


    Trabajos con paquetes de tareas poco integradas

    Aquí las tareas son más independientes:

    • Procesos repetitivos
    • Actividades fácilmente separables
    • Bajo nivel de contexto

    Ejemplo:

    • Soporte al cliente básico
    • Tareas administrativas
    • Programación rutinaria

    En estos casos, la IA puede:

    • Automatizar partes del trabajo
    • Reducir el alcance del rol
    • Fragmentar el empleo en tareas más simples

    El verdadero riesgo: la “erosión silenciosa”

    La IA no siempre elimina empleos directamente. En muchos casos:

    1. Automatiza ciertas tareas
    2. Los trabajadores se enfocan en lo restante
    3. La productividad se dispara
    4. Las empresas necesitan menos personas

    El resultado es menos empleo, pero no debido a un reemplazo directo del empleado, sino por el aumento de la productividad.


    Por qué ambos lados tienen razón

    Este modelo explica el debate actual:

    • Los optimistas ven mayor productividad y nuevos roles
    • Los pesimistas ven reducción de puestos

    Ambos están en lo correcto.

    La IA no está destruyendo el mercado laboral, sino redibujando sus límites.


    El futuro del trabajo con IA

    Tu nivel de riesgo dependerá de qué tan “integrado” esté tu trabajo:

    • Si tus habilidades forman un paquete fuerte, entonces la IA será tu aliada
    • Si tu trabajo se puede dividir en tareas sencillas independientes, entonces la IA puede quitarle valor progresivamente

    Más allá de la automatización

    La gran conclusión es clara: el futuro del empleo no depende solo de lo que la IA puede hacer, sino de cómo están estructurados los trabajos humanos.

    En esta nueva era, el valor no estará en tareas individuales, sino en la capacidad de combinarlas, interpretarlas y darles sentido.

  • OpenAI apuesta por una “superapp” de escritorio para liderar la era de la IA autónoma

    OpenAI está desarrollando una “superapp” de escritorio
    OpenAI está desarrollando una “superapp” de escritorio

    OpenAI está desarrollando una “superapp” de escritorio

    OpenAI ha decidido realizar un cambio estratégico en cómo distribuye su software. Va a desarrollar una aplicación de escritorio unificada, algo conocido como una “superapp”, que integrará sus principales productos, entre los que figuran ChatGPT, Codex y el navegador Atlas. De esta manera pretenden liderar la próxima generación de inteligencia artificial basada en agentes autónomos.

    Toda la funcionalidad, en una sola app

    El proyecto está liderado por Fidji Simo, responsable de aplicaciones en OpenAI, junto con Greg Brockman. La iniciativa busca resolver un problema interno, la fragmentación de productos.

    Hasta ahora, OpenAI ha distribuido sus capacidades en múltiples herramientas, lo que ha ralentizado el desarrollo y puede llegar a confundir a los usuario. La nueva superapp pretende unificar todo en una sola interfaz coherente y más potente.

    Según Simo, la empresa necesita centrarse en lo que realmente funciona y evitar distracciones, especialmente tras un año de múltiples experimentos.

    La desventaja de las superapps es que suelen ser más complejas de aprender a manejar y por lo tanto más intimidantes para nuevos usuarios. Esto podría ser un problema para OpenAI dado que sus clientes suelen ser menos sofisticados y avanzados que los de su principal competidor, Anthropic.

    Competencia directa con Anthropic

    Este movimiento también responde a la presión competitiva, especialmente por parte de Anthropic, que ha ganado terreno con productos como Claude Code y Cowork, orientados a desarrolladores y empresas.

    OpenAI busca reforzar su posición en:

    • Productividad avanzada
    • Desarrollo de software
    • Casos de uso empresariales

    La estrategia pasa por priorizar estas áreas y dejar en segundo plano otros proyectos menos estratégicos.

    El objetivo, dominar la IA basada en agentes

    El núcleo de esta transformación es la llamada IA basada en agentes (agentic AI).

    A diferencia de los chatbots tradicionales, estos sistemas pueden:

    • Actuar de forma autónoma
    • Tomar decisiones
    • Utilizar herramientas y software
    • Ejecutar tareas complejas con mínima supervisión

    OpenAI quiere que su superapp sea el centro de operaciones de estos agentes inteligentes, que son capaces de trabajar directamente en la computadora del usuario.

    Integración progresiva de funciones

    El despliegue será gradual:

    1. Primero llegarán nuevas capacidades basadas en agentes a Codex
    2. Luego se expandirán más allá de la programación hacia tareas generales
    3. Finalmente, ChatGPT y el navegador Atlas se integrarán en la misma app

    Este enfoque permitirá a OpenAI iterar sin comprometer la estabilidad del ecosistema.

    ¿Por qué solo en escritorio (y no en iPhone)?

    Una de las decisiones más llamativas es que esta superapp será exclusiva para macOS.

    La razón es técnica:

    • Los sistemas de escritorio permiten mayor acceso al sistema
    • La IA necesita interactuar con archivos, apps y procesos
    • Se requieren automatizaciones en segundo plano

    En contraste, iOS limita estas capacidades debido a su modelo de seguridad basado en sandboxing.

    Además:

    • Apple obliga a usar WebKit en navegadores
    • Restringe apps que actúan como plataformas dentro de la App Store
    • Limita la ejecución autónoma de acciones entre aplicaciones

    Todo esto hace inviable una superapp real en dispositivos móviles.

    Una nueva capa sobre el sistema operativo

    La visión de OpenAI es ambiciosa: crear una capa de software que se sitúe por encima de las aplicaciones tradicionales.

    En este modelo, la IA:

    • Organiza la información
    • Decide qué herramientas usar
    • Ejecuta tareas completas de principio a fin

    En esencia, pasamos de asistentes conversacionales a “trabajadores digitales” autónomos.

    El futuro de la IA, del chat a la acción

    Con esta superapp, OpenAI no solo busca mejorar su producto, sino redefinir cómo interactuamos con la tecnología.

    Mientras en móviles Apple mantiene un control férreo del ecosistema, el escritorio se perfila como el campo de batalla donde la IA podrá desplegar todo su potencial.

    Si OpenAI logra ejecutar esta visión, podríamos estar ante el inicio de una nueva era: la de sistemas que no solo responden a nuestras preguntas, sino que trabajan por nosotros.

  • Google prepara una app nativa de Gemini para Mac

    Google prepara una app nativa de Gemini para Mac
    Google prepara una app nativa de Gemini para Mac

    Un competidor directo de ChatGPT y Claude

    Google está a punto de dar un paso clave en la carrera de la inteligencia artificial con el desarrollo de una aplicación nativa de Gemini para macOS. Hasta ahora, los usuarios de Mac dependían del navegador para acceder a esta herramienta, pero eso cambiará pronto.

    Gemini llega como app nativa a macOS

    Según reportes recientes, Google ya está probando una versión beta de Gemini para Mac con un grupo reducido de usuarios externos. Se trata de una versión preliminar, enfocada en recopilar feedback antes de su lanzamiento oficial.

    Aunque aún es una versión incompleta, la app ya incluye funcionalidades importantes:

    • Búsquedas web integradas
    • Historial de conversaciones
    • Subida y análisis de documentos
    • Resolución de problemas complejos (incluyendo matemáticas)
    • Generación de contenido: texto, código, imágenes, tablas, gráficos, video y música

    La interfaz sigue la línea de las apps de Gemini en iPhone y iPad, ofreciendo una experiencia familiar dentro del ecosistema de Google.

    “Desktop Intelligence”: IA que ve tu pantalla

    La función más innovadora es “Desktop Intelligence”, una capacidad que permitirá a Gemini acceder al contexto de lo que ocurre en la pantalla del usuario.

    Esto significa que la IA podrá:

    • Analizar contenido visible en tiempo real
    • Extraer información de otras aplicaciones
    • Personalizar respuestas según el contexto

    Este enfoque ya lo hemos visto en soluciones como ChatGPT para Mac o Claude Cowork, pero su llegada a Gemini marca un salto importante en la integración de IA con el sistema operativo.

    Aunque no está confirmado si podrá ejecutar acciones dentro de otras apps, sí abre la puerta a integraciones con herramientas nativas de macOS como Calendario, Recordatorios o Fotos.

    Google vs Apple: una relación en evolución

    El lanzamiento de una app nativa de Gemini también refleja un cambio en la relación entre Google y Apple.

    Apple ha estado presionando para que Google participe más activamente en su ecosistema. Ejemplos recientes incluyen:

    • La app nativa de YouTube para Apple Vision Pro
    • La futura integración de Gemini en Apple Intelligence

    Aunque es lógico que Apple siempre quiere más aplicaciones para sus plataformas, hay que reconocer que Google ha sido un buen socio. Por ejemplo, Google liberó la aplicación Antigravity para desarrollar aplicaciones con la ayuda de la IA el mismo día que lo hizo para Windows y para Linux.

    También es importante destacar que esta app de Gemini será independiente del acuerdo entre ambas compañías para integrar modelos de IA en productos de Apple.

    Gemini podría llegar antes de lo esperado

    A diferencia de la integración profunda con Apple Intelligence, que depende de futuros desarrollos, la app de Gemini podría lanzarse mucho antes, sobre todo teniendo en cuenta que podría reutilizar parte del código de las apps para iPad e iPhone.

    El hecho de que ya esté en pruebas con usuarios externos sugiere que su lanzamiento público podría ser inminente.

    Un paso clave en la guerra de la IA

    Con esta nueva aplicación, Google entra de lleno en la competencia de apps de escritorio de IA, enfrentándose directamente a ChatGPT de OpenAI y Claude de Anthropic.

    Para los usuarios de Mac, esto supone el fin de una limitación importante: pronto podrán acceder a Gemini de forma nativa, más rápida y mejor integrada en su flujo de trabajo diario.

    La batalla por dominar la inteligencia artificial en el escritorio acaba de intensificarse.