gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • ChatGPT llega a Apple CarPlay

    Conversando con la IA en modo manos libres
    Conversando con la IA en modo manos libres

    Conversando con la IA en modo manos libres

    Tu trayecto diario acaba de volverse mucho más inteligente. Con el lanzamiento de iOS 26.4OpenAI ha llevado ChatGPT al tablero del auto, convirtiéndose en la primera gran plataforma de IA con una app dedicada para Apple CarPlay.

    La actualización permite hacer preguntas, generar ideas y mantener conversaciones naturales con IA sin usar las manos mientras conduces.


    Apple abre CarPlay a una nueva categoría de apps

    Durante años, Apple limitó estrictamente las apps permitidas en CarPlay para reducir distracciones al volante. La plataforma solo aceptaba apps de:

    • Audio
    • Comunicación
    • Navegación
    • Carga de vehículos eléctricos

    Con iOS 26.4, Apple añadió discretamente una nueva categoría, la de apps conversacionales basadas en voz.

    Para integrarse, los desarrolladores deben:

    • Obtener permisos especiales de Apple
    • Cumplir estrictas normas de seguridad y diseño
    • Usar plantillas oficiales de CarPlay

    Esto explica por qué la experiencia de ChatGPT en el coche es completamente diferente a la del iPhone.


    Experiencia 100% por voz y sin distracciones

    La app de ChatGPT en CarPlay está diseñada específicamente para la conducción:

    • No muestra texto ni imágenes
    • Solo funciona mediante voz
    • Interfaz minimalista con:
      • Botón “Finalizar”
      • Botón de silencio
      • Historial de conversaciones por voz

    Apple exige que estas apps estén optimizadas para el entorno de manejo, por lo que la interacción visual se reduce al mínimo.


    Limitaciones actuales de ChatGPT en el coche

    Aunque la integración es potente, tiene algunas restricciones importantes:

    • No puede controlar funciones del vehículo
    • No puede cambiar ajustes del iPhone
    • No tiene “wake word” (palabra de activación)
    • Debes abrir manualmente la app desde el panel de CarPlay

    Aun así, representa un paso enorme hacia la integración de asistentes de IA en el automóvil.


    Cómo usar ChatGPT en Apple CarPlay

    Para activarlo necesitas:

    1. Actualizar tu iPhone a iOS 26.4 o superior
    2. Descargar la última versión de ChatGPT desde la App Store
    3. Abrir la app desde el tablero de CarPlay y empezar a hablar

    La llegada de ChatGPT al coche marca el inicio de una nueva etapa en la conducción conectada, a saber tener una IA conversacional disponible en cada trayecto.

  • Filtración de Claude Code: cómo un simple error expuso la hoja de ruta secreta de Anthropic

    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos
    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos

    Un simple error

    Incluso las empresas más avanzadas de inteligencia artificial pueden caer por errores humanos básicos. Anthropic lo comprobó recientemente cuando un fallo de empaquetado dejó expuesto el código fuente completo de su herramienta para desarrolladores Claude Code.

    Aunque los modelos de IA no se vieron comprometidos, la filtración reveló detalles fascinantes sobre la hoja de ruta de la compañía para 2026, incluyendo agentes autónomos, una función de “sueño nocturno” y hasta una mascota virtual estilo Tamagotchi dentro del terminal.


    Cómo ocurrió la filtración

    El problema fue detectado por el investigador de seguridad Chaofan Shou y se debió a un error sorprendentemente común: dejar un archivo .map en una versión de producción.

    Cuando Anthropic publicó la versión 2.1.88 del paquete npm @anthropic-ai/claude-code, incluyó accidentalmente un archivo que apuntaba a un archivo ZIP con el código TypeScript original sin ofuscar alojado en Cloudflare R2.

    El resultado:

    • ~1,900 archivos TypeScript
    • Más de 512,000 líneas de código
    • Un archivo comprimido de menos de 10 MB

    Eso sí, los pesos del modelo Claude nunca estuvieron expuestos.

    Anthropic confirmó que fue un error de empaquetado y no una brecha de seguridad ni exposición de datos de usuarios.


    Lo que reveló la hoja de ruta secreta de 2026

    Al explorar el código, la comunidad descubrió múltiples proyectos en desarrollo:

    Project ULTRAPLAN

    Un sistema de tareas autónomas en segundo plano que permitirá a Claude trabajar hasta 30 minutos sin supervisión, generando planes de acción detallados para aprobación humana.

    Project KAIROS (Always-On)

    Claude evolucionaría hacia un agente persistente con memoria a largo plazo.

    Incluye una función sorprendente: “Nightly Dreaming”, donde la IA organiza y limpia sus registros mientras el usuario duerme.

    Coordinator Mode

    Claude podrá clonarse en múltiples sub-agentes que trabajarán en paralelo bajo la supervisión de un “Master Claude”.

    Un nuevo modelo secreto

    El código menciona un modelo interno en pruebas llamado Capybara.

    Telemetría de frustración

    La herramienta registrará señales de frustración del usuario, como insultos al terminal o repetición del comando “continue”. Como usuario de Claude, puedo anticipar que esa medición va a reportar resultados bastante altos…


    Project BUDDY: la mascota virtual en la terminal

    La sorpresa más curiosa del leak fue Project BUDDY, una mascota virtual integrada en la CLI.

    Características:

    • Se genera automáticamente al “nacer” según el ID del usuario
    • Puede adoptar 18 formas (pato, robot, fantasma, axolote, capibara…)
    • Tiene estadísticas propias de un RPG: paciencia, sabiduría y caos
    • Incluye accesorios raros y variantes “shiny” estilo Pokémon

    Inicialmente planeado como broma del April Fool’s, podría convertirse en una función permanente.


    Consecuencias y lecciones para la industria

    El código filtrado fue rápidamente archivado en GitHub y llegó a tener más de 41,500 forks antes de ser retirado por motivos legales.

    El incidente deja una lección clara para toda la industria: incluso los equipos más avanzados pueden fallar en sus pipelines de despliegue.

    Un simple error en .npmignore o package.json puede exponer proyectos completos.

    Para Anthropic, la sorpresa se perdió. Para los desarrolladores, fue una clase magistral sobre arquitectura CLI y sobre lo peligrosos que pueden ser los errores de empaquetado.

  • ARC-AGI-3: la prueba de inteligencia donde la IA más avanzada está fallando

    ARC-AGI-3, una nueva medida de la inteligencia
    ARC-AGI-3, una nueva medida de la inteligencia

    Una nueva medida de inteligencia

    Un nuevo benchmark publicado el 27 de marzo de 2026 está sacudiendo a la industria de la inteligencia artificial. La prueba ARC-AGI-3 muestra una enorme brecha entre la capacidad humana y la de los modelos más avanzados: mientras las personas resuelven el 100% de las tareas, los sistemas de frontera no superan el 1% de la puntuación.

    Entre los modelos evaluados se encuentran Google Gemini 3.1 ProOpenAI GPT-5.4 y Anthropic Claude Opus 4.6.


    Qué es ARC y por qué importa

    El benchmark fue creado por el investigador François Chollet, quien diseñó el Abstraction and Reasoning Corpus (ARC) para medir la inteligencia fluida, es decir, la capacidad de aprender y generalizar con pocos ejemplos.

    Las versiones anteriores, ARC-AGI-1 (2019) y ARC-AGI-2 (2025), utilizaban rompecabezas visuales estáticos. Sin embargo, con el tiempo los modelos de IA comenzaron a optimizarse específicamente para superar estas pruebas.

    Por eso nació ARC-AGI-3: un benchmark completamente nuevo que mide cómo aprende una IA, no solo lo que sabe.


    El gran cambio: entornos interactivos sin instrucciones

    ARC-AGI-3 abandona los rompecabezas estáticos y coloca a la IA en mini-juegos interactivos sin ninguna explicación ni objetivo visible.

    Para resolverlos, los sistemas deben demostrar cuatro habilidades clave:

    1. Exploración: interactuar para descubrir cómo funciona el entorno
    2. Modelado: construir un modelo mental del mundo
    3. Definición de objetivos: inferir qué significa “ganar”
    4. Planificación: ejecutar estrategias y corregir errores

    Los entornos se basan en principios de conocimiento básico humano: física simple, geometría y permanencia de objetos. No hay lenguaje, números ni símbolos culturales.


    La nueva forma de medir la inteligencia: eficiencia humana

    ARC-AGI-3 introduce el concepto de Relative Human Action Efficiency (RHAE).

    No basta con resolver el problema, la IA debe hacerlo con una eficiencia similar a la humana.

    Por ejemplo, si un humano resuelve un nivel en 10 acciones y una IA necesita 100, recibe solo 1% del puntaje.

    Este enfoque penaliza las estrategias de fuerza bruta que suelen usar los modelos actuales.


    La IA se queda muy atrás

    Los resultados iniciales son sorprendentes:

    • Gemini 3.1 Pro: 0.37%
    • GPT-5.4: 0.26%
    • Claude Opus 4.6: 0.25%
    • xAI Grok-4.20: 0.00%

    Para acelerar el progreso, la ARC Prize Foundation lanzó el ARC Prize 2026, con una bolsa de 2 millones de dólares y la obligación de publicar el código ganador como open source.


    Lo que revela este benchmark sobre el futuro de la IA

    ARC-AGI-3 nos deja como conclusión que los modelos actuales son excelentes acumulando conocimiento, pero siguen teniendo dificultades para aprender desde cero en entornos desconocidos.

    Hoy, este benchmark se perfila como el termómetro más exigente para medir el progreso hacia la AGI (Inteligencia Artificial General).

    Y el mensaje es contundente, la verdadera inteligencia no es lo que sabes, sino qué tan rápido puedes aprender lo que aún no sabes.

  • Ollama acelera la IA local en la Mac usando el framework MLX de Apple

    Ollama acelera la IA local en la Mac usando el framework MLX de Apple
    Ollama acelera la IA local en la Mac usando el framework MLX de Apple

    Un paso importante para una mejor IA local

    La velocidad es uno de los factores más importantes al trabajar con modelos de lenguaje (LLM). Ahora, los desarrolladores que utilizan Ollama, la popular herramienta open source para ejecutar modelos de IA de forma local, recibirán un importante impulso de rendimiento en computadoras Mac con Apple Silicon.

    Con la actualización de Ollama a la versión 0.19, que actualmente está disponible en una versión preliminar, la plataforma integra el framework de machine learning MLX de Apple, lo que promete mejoras drásticas en la velocidad de procesamiento de IA.


    La ventaja de la memoria unificada en Apple Silicon

    Uno de los principales cuellos de botella en sistemas tradicionales es la separación entre la memoria del CPU y del GPU. Esto obliga a duplicar datos y transferirlos constantemente.

    La arquitectura de memoria unificada de Apple Silicon elimina este problema al ofrecer un único pool de memoria compartida. Gracias a la adopción de MLX, Ollama puede aprovechar completamente esta arquitectura y mejorar la eficiencia del manejo de datos.

    Además, MLX permite conectar múltiples Macs mediante Ethernet o Thunderbolt para distribuir cargas de trabajo, aunque las mejoras más notables se observan incluso usando un solo equipo.

    El salto de rendimiento es especialmente visible en los nuevos chips Apple M5, que incorporan aceleradores neuronales en la GPU.


    Resultados: prompts más rápidos y respuestas casi al doble de velocidad

    Las cifras muestran mejoras muy importantes:

    • Procesamiento de prompts: 1.6× más rápido
    • Prefill: de 1,154 tokens en Ollama 0.18 a 1,810 tokens en la versión 0.19
    • Velocidad de generación: de 58 tokens/segundo a 112 tokens/segundo

    Esto reduce significativamente el tiempo para obtener el primer token de respuesta (Time to First Token o TTFT) y acelera la generación de texto en general.


    Mejor gestión de memoria para uso prolongado

    La actualización no solo mejora la velocidad, Ollama 0.19 introduce:

    • Caché más eficiente
    • Checkpointing inteligente
    • Menor consumo de memoria
    • Mayor estabilidad en sesiones largas

    También añade soporte para el formato Nvidia NVFP4, que mantiene la precisión del modelo reduciendo el uso de ancho de banda.

    Estas mejoras benefician especialmente a asistentes locales y herramientas de programación con IA como OpenClawClaude CodeOpenCode y Codex.


    Requisitos y disponibilidad

    Por ahora, esta versión es preliminar y está enfocada en equipos de gama alta:

    • Macs con más de 32 GB de memoria unificada
    • Soporte inicial limitado al modelo Qwen3.5-35B-A3B de Alibaba, optimizado para tareas de programación

    El equipo de Ollama ya trabaja en ampliar la compatibilidad con más modelos y facilitar la importación de modelos personalizados.


    Por qué importa

    La integración de MLX marca un paso importante para la IA local en macOS. Con velocidades casi duplicadas y mejor eficiencia de memoria, los Macs con Apple Silicon se posicionan como una de las plataformas más atractivas para ejecutar LLM sin depender de la nube.

    LocalIntelligence, el mejor front-end para Ollama

    Si usan Ollama, les recomiendo usar mi programa LocalIntelligence que es un front-end gráfico para esa aplicación y que les permitirá realizar la mayor parte de las operaciones desde una GUI nativa de macOS, sin necesidad de tener que usar la línea de comando, incluyendo soporte completo para MCP (Model Context Protocol), la base de la IA basa en agentes.

    LocalIntelligence está disponible de forma gratuita en la App Store de Apple. Sin embargo, si van a usar un servidor MCP local, necesitarán bajar la versión notariada de mi página web personal, ya que esto requiere permisos adicionales que las aplicaciones del App Store no pueden obtener.

  • Adobe Illustrator ya incluye Turntable para convertir ilustraciones 2D en vistas 3D en segundos

    Adobe Illustrator ya incluye Turntable para convertir ilustraciones 2D en vistas 3D en segundos
    Adobe Illustrator ya incluye Turntable para convertir ilustraciones 2D en vistas 3D en segundos

    Parece magia, pero una vez más, es IA

    Crear múltiples ángulos de un personaje u objeto siempre ha sido una de las tareas más laboriosas para ilustradores y animadores. Ahora, Adobe quiere simplificar este trabajo laborioso con el lanzamiento oficial de la función Turntable en Adobe Illustrator, que sale de beta y llega como una de las novedades más importantes del año para creadores digitales.

    De Project Turntable a Illustrator

    La función se presentó inicialmente como Project Turntable durante el evento Adobe MAX 2024, donde sorprendió al mostrar cómo era posible rotar ilustraciones planas en un espacio 3D.

    Ahora, tras meses de pruebas, la versión final está disponible y utiliza la IA Adobe Firefly para generar hasta 74 vistas desde distintos ángulos a partir de una sola ilustración vectorial.

    La herramienta permite:

    • Rotación horizontal completa
    • Inclinación vertical
    • Mantener el estilo artístico original en todas las vistas
    • Editar cada ángulo como vector independiente

    En otras palabras, se obtiene una “traducción 3D” de un dibujo 2D sin perder la esencia del diseño original.

    Ideal para animación, videojuegos y motion graphics

    Turntable está pensada para acelerar el trabajo de:

    • Animadores (turnarounds de personajes)
    • Diseñadores de videojuegos (concept art 360°)
    • Creadores de contenido y motion graphics

    Durante la beta, Adobe detectó que muchos animadores la usaban para generar presentaciones y pitch decks en minutos, mientras que equipos de videojuegos la aprovecharon para crear prototipos visuales con rapidez.

    Además, la herramienta facilita la creación de GIFs y micro-animaciones directamente en Illustrator y ofrece integración fluida con Adobe After Effects, agilizando el paso del diseño al motion.

    Mejores resultados con ilustraciones claras

    Según el feedback de la beta, Turntable funciona mejor con ilustraciones gráficas claramente definidas:

    • Contornos claros
    • Geometría identificable

    Los estilos muy abstractos o bocetos sueltos podrían generar resultados menos consistentes.

    Más novedades y lo que viene

    Turntable forma parte de una actualización más amplia de Illustrator que incluye:

    • Generative Shape Fill
    • Mejor integración con After Effects
    • Mejoras de rendimiento

    Y el futuro ya se asoma. Adobe también presentó Project Turn Style, una tecnología experimental que permitirá editar objetos 2D como si fueran modelos 3D completos.

    Con esta actualización, Illustrator da un paso clave hacia la convergencia entre ilustración, animación y 3D, reduciendo en la mayoría de los casos horas de trabajo tedioso a solo segundos.

  • Suno lanza un nuevo modelo para generar mejores canciones

    Suno lanza un nuevo modelo para generar mejores canciones y con más opciones de personalización
    Suno lanza un nuevo modelo para generar mejores canciones y con más opciones de personalización

    Creación musical con IA más personalizada que nunca

    La creación musical asistida por inteligencia artificial sigue evolucionando rápidamente, y Suno quiere mantenerse al frente de esta revolución. La app, destacada por medios como Rolling StoneBillboard y Wired, acaba de lanzar la versión 5.5, descrita por la compañía como su modelo “más expresivo y potente hasta la fecha”.

    Suno v5.5 apuesta por la hiperpersonalización

    Mientras versiones anteriores se enfocaban en mejorar la calidad del audio y lograr voces más naturales, la 5.5 introduce un giro importante hacia la personalización profunda con tres nuevas funciones clave:

    • Voices
    • Custom Models
    • My Taste

    Estas herramientas buscan que la música generada por IA refleje mejor el estilo y la identidad de cada usuario.

    Voices: ahora puedes entrenar a la IA con tu propia voz

    La función más solicitada por la comunidad finalmente llega: la posibilidad de entrenar la IA con tu voz.

    Los usuarios pueden subir acapellas, canciones completas o grabar directamente desde el micrófono del teléfono o laptop. Una vez entrenado el modelo, la IA puede cantar con esa voz sobre pistas nuevas o existentes.

    Para evitar abusos, Suno implementó un sistema de verificación en el que el usuario debe pronunciar una frase aleatoria para demostrar que la voz le pertenece. Por ahora, las voces entrenadas son privadas, aunque la empresa planea habilitar el intercambio en el futuro.

    Custom Models y My Taste: tu estilo musical como ADN

    La actualización también introduce herramientas para personalizar el estilo musical:

    • Custom Models (modelos personalizados): permite entrenar la IA con al menos seis canciones propias para que el sistema genere música con tu estilo característico.
    • My Taste (mi gusto): aprende automáticamente tus preferencias musicales (géneros, moods y artistas) para aplicarlas al generar nuevas canciones.

    Creación musical accesible para todos

    Uno de los grandes atractivos de Suno es su facilidad de uso. No se requiere experiencia musical. Basta escribir un prompt como “vocal trance alegre acerca de la vida de un programador” y la IA genera una canción completa en menos de un minuto.

    Los usuarios pueden regenerar, extender o editar pistas, convirtiendo la plataforma en un generador de canciones, beat maker y estudio musical integral.

    Precios y planes de Suno

    Suno mantiene un plan gratuito con hasta 10 canciones diarias. Las funciones avanzadas quedan para suscriptores:

    • Pro – $10 USD/mes:
      • 500 canciones al mes
      • Uso comercial
      • Separación de stems
      • Subida de audio de hasta 8 minutos
      • Hasta 3 Custom Models
    • Premier – $30 USD/mes:
      • 2,000 canciones al mes
      • Acceso a Suno Studio, una estación de trabajo generativa con editor multipista y exportación MIDI.

    La carrera por la música generada con IA se intensifica

    El lanzamiento llega en un momento en el que la competencia ha aumentado, apenas después del anuncio de Google de su nuevo sistema musical Lyria 3 Pro.

    Esta rivalidad refleja una carrera tecnológica por definir las herramientas creativas del futuro. Para Suno, la versión 5.5 no es solo una actualización, es la base de una nueva generación de modelos musicales que la empresa planea lanzar junto a la industria musical este mismo año.

  • Se filtra Claude Mythos, el nuevo modelo de Anthropic

    Se filtra Claude Mythos, el nuevo modelo de Anthropic
    Se filtra Claude Mythos, el nuevo modelo de Anthropic

    El nuevo modelo de Anthropic sacude el mundo de la ciberseguridad

    Una filtración masiva reveló accidentalmente uno de los proyectos más secretos de Anthropic, un nuevo modelo de inteligencia artificial llamado Claude Mythos. Descrito internamente como un “salto de generación” en capacidades de IA, su potencial ofensivo en ciberseguridad ya provocó impacto en la industria tecnológica y en los mercados financieros.

    La filtración ocurrió el 26 de marzo de 2026 debido a un simple error de configuración.


    La filtración de 3,000 archivos

    Investigadores de seguridad descubrieron un repositorio público sin protección con casi 3,000 documentos internos de la compañía.

    El problema se originó en el sistema CMS de Anthropic. Los archivos no publicados tenían URLs públicas por defecto si no se restringían manualmente.

    Entre los documentos expuestos había:

    • Borradores de blog corporativo
    • Estrategias internas
    • Detalles de eventos exclusivos con el CEO Dario Amodei

    Tras ser alertada, la empresa confirmó el modelo y atribuyó la filtración a un error humano.


    Mythos: el nuevo nivel premium de Claude

    Actualmente, la familia Claude se divide en:

    • Haiku (ligero)
    • Sonnet (equilibrado)
    • Opus (gama alta)

    La filtración revela que Mythos, cuyo nombre interno es Capybara, será el cuarto nivel premium.

    Según los documentos:

    • Es más grande e inteligente que cualquier modelo previo
    • Supera ampliamente a Claude Opus 4.6
    • Mejora los niveles de programación, razonamiento académico y ciberseguridad

    Esto es relevante porque Opus 4.6 ya había superado a OpenAI en benchmarks de programación.

    El problema es que Mythos es extremadamente caro de ejecutar, por lo que aún está siendo optimizado antes de su lanzamiento masivo.


    La IA que podría cambiar la ciberseguridad

    El punto más preocupante del modelo es su capacidad ofensiva.

    Anthropic afirma que Mythos está:

    • “Muy por delante de cualquier otro modelo en capacidades cyber”
    • Capaz de encontrar y explotar vulnerabilidades a gran velocidad

    La empresa ya tenía antecedentes preocupantes:

    • Claude Opus 4.6 detectó vulnerabilidades zero-day
    • Claude Code fue usado en un ataque estatal chino contra ~30 organizaciones
    • En pruebas internas, Claude se convirtió en fábrica de malware en 8 horas

    Mythos escala estas capacidades a un nuevo nivel.


    Impacto inmediato en la bolsa

    La noticia generó pánico en el sector de ciberseguridad.

    Acciones de empresas como:

    • Palo Alto Networks
    • CrowdStrike
    • Fortinet

    cayeron entre 4% y 6%, arrastrando al ETF tecnológico IGV.

    El temor es que una IA capaz de romper defensas vuelva obsoletas muchas de las soluciones actuales.


    Lanzamiento limitado y enfoque defensivo

    Para reducir riesgos, Anthropic seguirá una estrategia que restringirá inicialmente el acceso al nuevo modelo:

    • Acceso inicial solo para empresas de defensa cibernética
    • Disponible vía API para clientes seleccionados
    • Objetivo: dar ventaja a los “white hat” antes, para intentar evitar ataques masivos

    Esta estrategia replica la usada por OpenAI con GPT-5.3-Codex y su programa de acceso para defensa.


    Un momento clave para Anthropic

    La filtración llega en un momento crucial:

    • Dominio creciente en el mercado B2B y desarrollo
    • Rumores de una próxima salida a bolsa (IPO)
    • Problemas recientes de caídas en su plataforma

    Claude Mythos podría aumentar enormemente su valoración en bolsa, pero también pone en duda si su infraestructura y seguridad están listas para la próxima generación de IA, lo cual es irónico dado que es justamente la fortaleza de su nuevo modelo.

  • Apple abrirá Siri a chatbots de IA rivales en iOS 27

    Apple abrirá Siri a chatbots de IA rivales en iOS 27
    Apple abrirá Siri a chatbots de IA rivales en iOS 27

    El fin de la exclusividad de ChatGPT

    Según Marc Gurman, de Bloomberg, Apple prepara uno de los cambios más importantes en la historia de Siri. Durante la Worldwide Developers Conference(WWDC) del 8 de junio de 2026, la compañía presentaría iOS 27, una actualización que permitirá integrar chatbots de IA de terceros directamente con el asistente.

    Este movimiento marcaría el fin de la exclusividad de ChatGPT dentro del ecosistema Apple y abriría la puerta a una nueva era de inteligencia artificial en iPhone, iPad y Mac.


    Siri será compatible con múltiples IA

    Desde la llegada de Apple Intelligence en iOS 18, OpenAI disfrutaba de una integración exclusiva de ChatGPT con Siri para resolver consultas complejas.

    Sin embargo, reportes recientes indican que Apple abandonará este modelo cerrado para adoptar un enfoque más abierto. Con iOS 27, los usuarios podrán conectar Siri con múltiples servicios de IA, entre ellos:

    El objetivo es crear un ecosistema competitivo donde el usuario elija qué IA usar según sus necesidades.


    Así funcionará el nuevo sistema “Extensions”

    Apple implementará un nuevo sistema basado en APIs llamado Extensions, disponible en:

    • iOS 27
    • iPadOS 27
    • macOS 27

    Si el usuario tiene instalada una app de IA compatible, podrá asignarla a tareas específicas dentro de Siri. Por ejemplo:

    • Usar Claude para programación
    • Usar otra IA para búsquedas web
    • Combinar varios asistentes según el tipo de consulta

    Todo se gestionará desde un nuevo menú en Configuración dentro de Apple Intelligence y Siri. Desde ahí, Apple ofrecerá enlaces directos a la App Store para descargar chatbots compatibles.

    Este cambio también abre una nueva fuente de ingresos para Apple mediante suscripciones de IA dentro de la App Store.


    El fin de la exclusividad con OpenAI

    El nuevo modelo pone fin a la relación exclusiva entre Apple y OpenAI.

    Este cambio también llega tras la presión del sector. La startup xAI de Elon Musk incluso presentó una demanda contra Apple y OpenAI, acusándolos de intentar dominar el mercado de IA.

    Con iOS 27, Apple permitirá que cualquier desarrollador integre su chatbot con Siri, siempre que cumpla con las nuevas APIs.


    La estrategia doble de Apple en inteligencia artificial

    Abrir Siri no significa que Apple abandone su propia IA.

    Los dispositivos seguirán usando modelos propios como sistema predeterminado mediante:

    • Procesamiento en el dispositivo
    • Private Cloud Compute para privacidad

    Además, Apple mantiene una relación estratégica con Google. Aunque Gemini podrá integrarse como app externa, Apple también usaría versiones optimizadas de sus modelos para mejorar sus propios sistemas de Apple Intelligence.

    Entre las funciones futuras se esperan:

    • Mayor control dentro de apps
    • Capacidades avanzadas de “Personal Intelligence”
    • Una posible app independiente de Siri con interfaz tipo chatbot

    Un despliegue gradual

    Apple ya comenzó este camino con iOS 26.4, que abrió CarPlay a chatbots de terceros.

    La estrategia de iOS 27 muestra el nuevo enfoque de Apple, mantener el control del ecosistema mientras permite a los usuarios elegir las mejores herramientas de IA disponibles.

    La guerra de los asistentes inteligentes en el iPhone acaba de comenzar.

  • LeWorldModel de Yann LeCun nos acerca a una IA que entiende el mundo físico

    IA
    LeWorldModel de Yann LeCun nos acerca a una IA que entiende el mundo físico

    Más allá de los LLM

    Durante años, el pionero de la inteligencia artificial Yann LeCun ha criticado la obsesión de la industria por los modelos de lenguaje (LLM). Según él, sistemas como ChatGPT pueden imitar el lenguaje, pero no comprenden el mundo real ni pueden planificar de forma auténtica.

    Su apuesta ha sido otra, crear World Models, una nueva clase de modelos de IA capaces de entender la física, predecir dinámicas del mundo real e impulsar la próxima generación de robots.

    Ahora, ese objetivo acaba de dar un salto enorme con LeWorldModel (LeWM), una investigación presentada en 2026 por investigadores de un consorcio de Mila, New York University, Samsung SAIL y Brown University, que incluía a Yann LeCun.


    IA que aprende física directamente de píxeles

    El gran avance de LeWorldModel es que demuestra que una IA puede aprender leyes físicas sin sensores complejos ni supercomputadoras, solo a partir de imágenes.

    El sistema pertenece a la familia de arquitecturas JEPA (Joint-Embedding Predictive Architectures), que predicen la estructura de una escena en un «espacio latente» en lugar de generar píxeles directamente.

    Hasta ahora, estos modelos sufrían problemas graves:

    • Colapso de representación (dejaban de predecir correctamente)
    • Entrenamiento complejo y poco estable
    • Dependencia de múltiples pérdidas y supervisión externa

    LeWorldModel simplifica radicalmente el proceso.


    Entrenamiento estable con solo dos funciones de pérdida

    La clave del avance está en su diseño minimalista:

    • Next-Embedding Predictive Autoregression (NEPA)
    • Un nuevo regularizador llamado SIGReg

    Este regularizador fuerza que el espacio latente tenga una distribución gaussiana, evitando que el modelo “haga trampa” o colapse.

    Resultado, el número de hiperparámetros baja de seis a solo uno.


    Sorprendente eficiencia: solo 15 millones de parámetros

    Mientras los LLM actuales tienen cientos de miles de millones de parámetros, LeWorldModel funciona con apenas 15 millones.

    Esto permite:

    • Entrenar el modelo en tan solo unas horas
    • Usar una sola GPU
    • Planificar únicamente en base a imágenes

    El modelo codifica cada fotograma como un token de 192 dimensiones y puede planificar acciones 48 veces más rápido que modelos más pesados como DINO-WM.

    Un ejemplo:

    • DINO-WM tarda 47 segundos en planificar
    • LeWM lo hace en 1 segundo

    Pruebas de “intuición física” para la IA

    Para validar que realmente comprende el mundo, el modelo fue evaluado en múltiples tareas:

    • Navegación en entornos 2D
    • Control de brazos robóticos
    • Manipulación de objetos
    • Pick & place en 3D

    Los resultados fueron sorprendentes:

    • Superó a modelos base en varias pruebas
    • Rivalizó con modelos mucho más grandes
    • Detectó eventos físicamente imposibles mediante pruebas de “violación de expectativas”

    Por ejemplo, el sistema identificó como anómalos eventos como objetos moviéndose contra la gravedad.


    El impacto en la robótica y el futuro de la IA

    Aunque aún no está listo para robots domésticos, LeWorldModel es una prueba de concepto clave para el futuro de la IA física.

    El proyecto también está ligado a AMI Labs, la startup fundada en Francia por LeCun en 2026 y valorada en 3,500 millones de dólares.

    Si un modelo tan pequeño puede aprender conceptos básicos de espacio, gravedad y movimiento, el futuro de la robótica eficiente y accesible podría estar más cerca de lo que imaginamos.


    El inicio de una nueva generación de IA

    LeWorldModel demuestra que la evolución de la inteligencia artificial no dependerá únicamente de modelos gigantes y centros de datos masivos.

    El siguiente gran salto podría venir de sistemas más ligeros, eficientes y capaces de comprender el mundo físico.

  • Nace cq, el “Stack Overflow para agentes de IA”

    Nace cq, el “Stack Overflow para agentes de IA”, impulsado por Mozilla
    Nace cq, el “Stack Overflow para agentes de IA”, impulsado por Mozilla

    Un nuevo proyecto de Mozilla

    Durante más de una década, Stack Overflow fue la enciclopedia del desarrollo de software. En su pico de 2014 superaba las 200,000 preguntas mensuales, pero para diciembre de 2025 la cifra cayó a tan solo 3,862. El principal responsable ya lo conocemos. Los modelos de lenguaje que absorbieron ese conocimiento y cambiaron la forma en que los desarrolladores resuelven dudas.

    Actualmente, herramientas como ChatGPT, Claude, Gemini y GitHub Copilot responden preguntas al instante. Pero este avance ha creado un nuevo problema, a saber que los agentes de IA trabajan aislados y repiten los mismos errores una y otra vez.


    El problema oculto de los agentes de IA

    Aunque los agentes son cada vez más capaces, no comparten lo que aprenden.

    Cada día se enfrentan a obstáculos repetidos:

    • Integraciones de APIs complicadas
    • Configuraciones CI/CD problemáticas
    • Limitaciones de frameworks sin documentar

    Sin memoria compartida, cada agente debe experimentar desde cero, gastando cómputo y tokens para resolver problemas ya solucionados por otros.


    Qué es cq y por qué importa

    El ingeniero Peter Wilson presentó cq, un proyecto open source anunciado en marzo de 2026 que busca convertirse en el “Stack Overflow de los agentes de IA”.

    El nombre proviene de colloquy (intercambio de ideas) y del código de radio “CQ”, que significa “cualquier estación, responda”.

    El objetivo es crear una memoria colectiva para agentes de programación.


    Así funciona el “commons” de conocimiento

    Antes de ejecutar una tarea, un agente consulta el repositorio común de cq.
    Si otro agente ya resolvió el problema, puede reutilizar la solución de inmediato.

    Cuando descubre algo nuevo, el agente devuelve esa información como una unidad de conocimiento, que incluye:

    • Problema
    • Solución
    • Contexto de ejecución
    • Nivel de confianza

    La confianza crece cuando múltiples agentes confirman que la solución funciona en distintos entornos.


    La falta de confianza, el gran reto de la IA

    El proyecto llega en un momento clave:

    • 84% de desarrolladores usan o planean usar IA
    • 46% no confía plenamente en sus resultados

    cq busca cerrar esa brecha mediante consenso entre agentes, en lugar de depender de la respuesta de un único modelo.


    Riesgos y preocupaciones de seguridad

    La comunidad de Hacker News ya ha detectado riesgos potenciales importantes. Por ejemplo, si los agentes implementan código del repositorio público, podrían introducirse backdoors o scripts maliciosos.

    Por ello, Mozilla enfatiza que el proyecto aún es experimental.


    Un proyecto abierto y en evolución

    El equipo ha publicado un prototipo funcional en GitHub con:

    • Plugins para Claude Code y OpenCode
    • Servidor MCP para conocimiento local
    • API para equipos
    • Interfaz “human-in-the-loop” para supervisión

    Actualmente, Mozilla usa cq internamente para mejorar el sistema antes de su adopción general.


    El futuro del conocimiento en la era de la IA

    La industria está en una encrucijada. ¿Se debe permitir que unas pocas empresas definan cómo se usa la IA o se deben construir estándares abiertos que beneficien a todos?

    Proyectos como cq apuntan a una nueva generación de intercambio de conocimiento, diseñada no solo para humanos, sino también para máquinas. La próxima “Stack Overflow” podría no estar hecha para programadores, sino para agentes de inteligencia artificial.