gadgetsgenial.es

Autor: Huibert Aalbers

  • ChatGPT llega a Apple CarPlay

    Conversando con la IA en modo manos libres
    Conversando con la IA en modo manos libres

    Conversando con la IA en modo manos libres

    Tu trayecto diario acaba de volverse mucho más inteligente. Con el lanzamiento de iOS 26.4OpenAI ha llevado ChatGPT al tablero del auto, convirtiéndose en la primera gran plataforma de IA con una app dedicada para Apple CarPlay.

    La actualización permite hacer preguntas, generar ideas y mantener conversaciones naturales con IA sin usar las manos mientras conduces.


    Apple abre CarPlay a una nueva categoría de apps

    Durante años, Apple limitó estrictamente las apps permitidas en CarPlay para reducir distracciones al volante. La plataforma solo aceptaba apps de:

    • Audio
    • Comunicación
    • Navegación
    • Carga de vehículos eléctricos

    Con iOS 26.4, Apple añadió discretamente una nueva categoría, la de apps conversacionales basadas en voz.

    Para integrarse, los desarrolladores deben:

    • Obtener permisos especiales de Apple
    • Cumplir estrictas normas de seguridad y diseño
    • Usar plantillas oficiales de CarPlay

    Esto explica por qué la experiencia de ChatGPT en el coche es completamente diferente a la del iPhone.


    Experiencia 100% por voz y sin distracciones

    La app de ChatGPT en CarPlay está diseñada específicamente para la conducción:

    • No muestra texto ni imágenes
    • Solo funciona mediante voz
    • Interfaz minimalista con:
      • Botón “Finalizar”
      • Botón de silencio
      • Historial de conversaciones por voz

    Apple exige que estas apps estén optimizadas para el entorno de manejo, por lo que la interacción visual se reduce al mínimo.


    Limitaciones actuales de ChatGPT en el coche

    Aunque la integración es potente, tiene algunas restricciones importantes:

    • No puede controlar funciones del vehículo
    • No puede cambiar ajustes del iPhone
    • No tiene “wake word” (palabra de activación)
    • Debes abrir manualmente la app desde el panel de CarPlay

    Aun así, representa un paso enorme hacia la integración de asistentes de IA en el automóvil.


    Cómo usar ChatGPT en Apple CarPlay

    Para activarlo necesitas:

    1. Actualizar tu iPhone a iOS 26.4 o superior
    2. Descargar la última versión de ChatGPT desde la App Store
    3. Abrir la app desde el tablero de CarPlay y empezar a hablar

    La llegada de ChatGPT al coche marca el inicio de una nueva etapa en la conducción conectada, a saber tener una IA conversacional disponible en cada trayecto.

  • Matter 1.5.1 mejora el soporte para cámaras de seguridad inteligentes

    Unas mejoras necesarias

    Cuando piensas en el estándar de hogar inteligente Matter, desarrollado por gigantes tecnológicos como Apple, Google y Samsung, probablemente imaginas enchufes inteligentes, luces o termostatos conectados. Su promesa siempre ha sido clara: interoperabilidad total entre marcas.

    Sin embargo, el soporte para capacidades avanzadas de las cámaras de seguridad había quedado rezagado, hasta ahora.

    La Connectivity Standards Alliance acaba de lanzar Matter 1.5.1, una actualización diseñada específicamente para resolver los mayores problemas de compatibilidad entre cámaras inteligentes.


    Streaming múltiple: más eficiencia y menos consumo

    La novedad más importante es el soporte de video y audio multi-stream.

    Antes:

    • Configurar diferentes transmisiones para apps y dispositivos era complicado
    • Consumía mucho ancho de banda

    Ahora, una sola cámara puede enviar varios streams simultáneos optimizados:

    • Video en alta resolución, para grabación en la nube o NVR
    • Stream ligero, para ver desde el móvil
    • Stream dedicado, para análisis con IA
    • Soporte para cámaras con múltiples lentes

    El resultado es menos consumo de red y mejor integración entre ecosistemas.


    Nuevos formatos multimedia más eficientes

    Matter 1.5.1 también mejora la compatibilidad con formatos modernos:

    Fotos en HEIC

    Las capturas ahora pueden usar HEIC, el formato popular en smartphones modernos.
    Ventajas:

    • Mejor calidad que JPEG
    • Menor tamaño de archivo

    Video con HLS y DASH

    Se añade compatibilidad completa con:

    • HLS
    • DASH
    • CMAF Interface-2

    Estos estándares ya dominan el streaming moderno, lo que facilita la integración con plataformas cloud y servicios multimedia.


    Mejoras en hardware: cámaras PTZ y timbres inteligentes

    La actualización también incluye mejoras prácticas para dispositivos físicos.

    Cámaras PTZ más flexibles

    Las cámaras pan-tilt-zoom ahora pueden moverse con mayor libertad, incluso si su posición inicial está en el límite del rango de rotación.

    Timbres y melodías personalizables

    Los timbres inteligentes reciben mejoras clave:

    • Reproducción de tonos personalizados
    • Automatizaciones basadas en el sonido del timbre
    • Diferentes tonos según hora o puerta

    Por ejemplo, ahora cada puerta puede tener un sonido distinto o usar tonos especiales en fechas festivas.


    Qué significa Matter 1.5.1 para el futuro del hogar inteligente

    Aunque Matter 1.5.1 es una actualización “de mantenimiento”, su impacto es enorme al por fin acercar las cámaras inteligentes a la promesa original de interoperabilidad total.

    Actualmente, Samsung SmartThings es el ecosistema más avanzado en integrar estas mejoras, pero ahora que la especificación está disponible, solo es cuestión de tiempo para que más fabricantes adopten el estándar.

    El resultado será un hogar inteligente más simple, rápido y realmente compatible entre marcas.

  • Primer tráiler de Cabo del Miedo de Apple TV

    La nueva serie Cabo del Miedo de Apple TV ya tiene su primer tráiler
    La nueva serie Cabo del Miedo de Apple TV ya tiene su primer tráiler

    Tercera versión de un clásico

    Apple TV ya tiene un primer tráiler para la Cape Fear (El Cabo del Miedo), una nueva serie de thriller psicológico proveniente del poderoso dúo de productores Steven Spielberg y Martin Scorsese.

    Para los más veteranos, la historia no les resultará nueva. La serie se basa en la novela “The executioners” que fue llevada dos veces a la pantalla grande, una primera vez en 1962 con Gregory Peck como protagonista y una segunda vez con Robert de Niro y Nick Nolte en 1991. Esta segunda versión también fue producida por Martin Scorsese, por lo que podemos asumir que esta historia de suspense le ha marcado profundamente.

    La nueva versión de Cabo del Miedo de Apple cuenta con la producción ejecutiva de Scorsese junto con Steven Spielberg. La serie está protagonizada por Javier BardemAmy Adams y Patrick Wilson.

    Cape Fear llegará a Apple TV el viernes 5 de junio, fecha en la que sus dos primeros episodios estarán disponibles, seguidos de lanzamientos semanales hasta el 31 de julio.

    Esta es lo que sabemos de la trama de la serie:

    En «Cabo del Miedo”, una tormenta se avecina para los abogados felizmente casados Amanda y Steve Bowden cuando Max Cady (interpretado por Bardem), un asesino violento con el que Steve se cruzó en el pasado, sale de prisión con sed de venganza. La serie de 10 episodios es un thriller tenso, al estilo de Hitchcock, y un examen de la obsesión de Estados Unidos con el género “true crime” ahora en el siglo XXI.

  • Filtración de Claude Code: cómo un simple error expuso la hoja de ruta secreta de Anthropic

    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos
    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos

    Un simple error

    Incluso las empresas más avanzadas de inteligencia artificial pueden caer por errores humanos básicos. Anthropic lo comprobó recientemente cuando un fallo de empaquetado dejó expuesto el código fuente completo de su herramienta para desarrolladores Claude Code.

    Aunque los modelos de IA no se vieron comprometidos, la filtración reveló detalles fascinantes sobre la hoja de ruta de la compañía para 2026, incluyendo agentes autónomos, una función de “sueño nocturno” y hasta una mascota virtual estilo Tamagotchi dentro del terminal.


    Cómo ocurrió la filtración

    El problema fue detectado por el investigador de seguridad Chaofan Shou y se debió a un error sorprendentemente común: dejar un archivo .map en una versión de producción.

    Cuando Anthropic publicó la versión 2.1.88 del paquete npm @anthropic-ai/claude-code, incluyó accidentalmente un archivo que apuntaba a un archivo ZIP con el código TypeScript original sin ofuscar alojado en Cloudflare R2.

    El resultado:

    • ~1,900 archivos TypeScript
    • Más de 512,000 líneas de código
    • Un archivo comprimido de menos de 10 MB

    Eso sí, los pesos del modelo Claude nunca estuvieron expuestos.

    Anthropic confirmó que fue un error de empaquetado y no una brecha de seguridad ni exposición de datos de usuarios.


    Lo que reveló la hoja de ruta secreta de 2026

    Al explorar el código, la comunidad descubrió múltiples proyectos en desarrollo:

    Project ULTRAPLAN

    Un sistema de tareas autónomas en segundo plano que permitirá a Claude trabajar hasta 30 minutos sin supervisión, generando planes de acción detallados para aprobación humana.

    Project KAIROS (Always-On)

    Claude evolucionaría hacia un agente persistente con memoria a largo plazo.

    Incluye una función sorprendente: “Nightly Dreaming”, donde la IA organiza y limpia sus registros mientras el usuario duerme.

    Coordinator Mode

    Claude podrá clonarse en múltiples sub-agentes que trabajarán en paralelo bajo la supervisión de un “Master Claude”.

    Un nuevo modelo secreto

    El código menciona un modelo interno en pruebas llamado Capybara.

    Telemetría de frustración

    La herramienta registrará señales de frustración del usuario, como insultos al terminal o repetición del comando “continue”. Como usuario de Claude, puedo anticipar que esa medición va a reportar resultados bastante altos…


    Project BUDDY: la mascota virtual en la terminal

    La sorpresa más curiosa del leak fue Project BUDDY, una mascota virtual integrada en la CLI.

    Características:

    • Se genera automáticamente al “nacer” según el ID del usuario
    • Puede adoptar 18 formas (pato, robot, fantasma, axolote, capibara…)
    • Tiene estadísticas propias de un RPG: paciencia, sabiduría y caos
    • Incluye accesorios raros y variantes “shiny” estilo Pokémon

    Inicialmente planeado como broma del April Fool’s, podría convertirse en una función permanente.


    Consecuencias y lecciones para la industria

    El código filtrado fue rápidamente archivado en GitHub y llegó a tener más de 41,500 forks antes de ser retirado por motivos legales.

    El incidente deja una lección clara para toda la industria: incluso los equipos más avanzados pueden fallar en sus pipelines de despliegue.

    Un simple error en .npmignore o package.json puede exponer proyectos completos.

    Para Anthropic, la sorpresa se perdió. Para los desarrolladores, fue una clase magistral sobre arquitectura CLI y sobre lo peligrosos que pueden ser los errores de empaquetado.

  • ARC-AGI-3: la prueba de inteligencia donde la IA más avanzada está fallando

    ARC-AGI-3, una nueva medida de la inteligencia
    ARC-AGI-3, una nueva medida de la inteligencia

    Una nueva medida de inteligencia

    Un nuevo benchmark publicado el 27 de marzo de 2026 está sacudiendo a la industria de la inteligencia artificial. La prueba ARC-AGI-3 muestra una enorme brecha entre la capacidad humana y la de los modelos más avanzados: mientras las personas resuelven el 100% de las tareas, los sistemas de frontera no superan el 1% de la puntuación.

    Entre los modelos evaluados se encuentran Google Gemini 3.1 ProOpenAI GPT-5.4 y Anthropic Claude Opus 4.6.


    Qué es ARC y por qué importa

    El benchmark fue creado por el investigador François Chollet, quien diseñó el Abstraction and Reasoning Corpus (ARC) para medir la inteligencia fluida, es decir, la capacidad de aprender y generalizar con pocos ejemplos.

    Las versiones anteriores, ARC-AGI-1 (2019) y ARC-AGI-2 (2025), utilizaban rompecabezas visuales estáticos. Sin embargo, con el tiempo los modelos de IA comenzaron a optimizarse específicamente para superar estas pruebas.

    Por eso nació ARC-AGI-3: un benchmark completamente nuevo que mide cómo aprende una IA, no solo lo que sabe.


    El gran cambio: entornos interactivos sin instrucciones

    ARC-AGI-3 abandona los rompecabezas estáticos y coloca a la IA en mini-juegos interactivos sin ninguna explicación ni objetivo visible.

    Para resolverlos, los sistemas deben demostrar cuatro habilidades clave:

    1. Exploración: interactuar para descubrir cómo funciona el entorno
    2. Modelado: construir un modelo mental del mundo
    3. Definición de objetivos: inferir qué significa “ganar”
    4. Planificación: ejecutar estrategias y corregir errores

    Los entornos se basan en principios de conocimiento básico humano: física simple, geometría y permanencia de objetos. No hay lenguaje, números ni símbolos culturales.


    La nueva forma de medir la inteligencia: eficiencia humana

    ARC-AGI-3 introduce el concepto de Relative Human Action Efficiency (RHAE).

    No basta con resolver el problema, la IA debe hacerlo con una eficiencia similar a la humana.

    Por ejemplo, si un humano resuelve un nivel en 10 acciones y una IA necesita 100, recibe solo 1% del puntaje.

    Este enfoque penaliza las estrategias de fuerza bruta que suelen usar los modelos actuales.


    La IA se queda muy atrás

    Los resultados iniciales son sorprendentes:

    • Gemini 3.1 Pro: 0.37%
    • GPT-5.4: 0.26%
    • Claude Opus 4.6: 0.25%
    • xAI Grok-4.20: 0.00%

    Para acelerar el progreso, la ARC Prize Foundation lanzó el ARC Prize 2026, con una bolsa de 2 millones de dólares y la obligación de publicar el código ganador como open source.


    Lo que revela este benchmark sobre el futuro de la IA

    ARC-AGI-3 nos deja como conclusión que los modelos actuales son excelentes acumulando conocimiento, pero siguen teniendo dificultades para aprender desde cero en entornos desconocidos.

    Hoy, este benchmark se perfila como el termómetro más exigente para medir el progreso hacia la AGI (Inteligencia Artificial General).

    Y el mensaje es contundente, la verdadera inteligencia no es lo que sabes, sino qué tan rápido puedes aprender lo que aún no sabes.

  • Delta y Amazon llevarán Wi-Fi satelital ultrarrápido a los aviones con tecnología LEO

    Amazon
    Delta y Amazon llevarán Wi-Fi satelital ultrarrápido a los aviones con tecnología LEO

    La conectividad aérea está a punto de cambiar para siempre

    Delta Air Lines anunció una alianza multianual con Amazon para ofrecer Wi-Fi de alta velocidad y baja latencia en vuelos mediante la red satelital Leo.

    El despliegue comenzará en 2028 y equipará inicialmente 500 aeronaves de la aerolínea.


    Internet gratis para millones de pasajeros

    Siguiendo la estrategia de beneficios para viajeros, el servicio será gratuito para todos los miembros de SkyMiles en rutas hacia más de 300 destinos globales.

    El objetivo es ofrecer una experiencia de conexión “gate-to-gate”, es decir, desde que abordas hasta que aterrizas.


    Qué es la red satelital Leo de Amazon

    La red Leo (Low Earth Orbit) está formada por miles de satélites en órbita baja, a unos 600 km de altura, diseñados para ofrecer internet rápido y estable en cualquier parte del mundo.

    Cada avión contará con una antena de matriz en fase capaz de alcanzar:

    • Hasta 1 Gbps de descarga
    • Hasta 400 Mbps de subida

    En la práctica, los pasajeros podrán:

    • Ver video en streaming sin interrupciones
    • Jugar en línea
    • Trabajar en la nube
    • Mantener videollamadas estables

    Todo como si estuvieran en tierra.

    Según Andy Jassy, CEO de Amazon, esta tecnología permitirá que millones de viajeros permanezcan conectados durante todo el vuelo.


    La batalla por el Wi-Fi en los aviones se intensifica

    El anuncio es una reacción competitiva directa contra SpaceX y su servicio Starlink, que ya tiene acuerdos con aerolíneas como Alaska Air, United y British Airways.

    Amazon busca cerrar la brecha rápidamente. Actualmente tiene unos 200 satélites en órbita y planea acelerar su despliegue para poner la red en operación antes del lanzamiento con Delta.

    El 12 de febrero de 2026, la empresa europea Arianespace lanzó con éxito 32 satélites Amazon LEO con su megacohete Ariane 64 desde el puerto espacial europeo de Kourou, en la Guayana Francesa.

    Arianespace ha conseguido su mayor contrato privado con Amazon, el cual contempla 18 lanzamientos. El gigante estadounidense del comercio electrónico tiene previsto desplegar más de 3.000 satélites en los próximos años.


    Una alianza tecnológica que ya existía

    Esta colaboración no surge de la nada. Delta ya utiliza Amazon Web Services para sus sistemas de reservaciones y aplicaciones, tras migrar más de 600 apps a la nube desde 2020.

    La expansión hacia conectividad satelital es el siguiente paso lógico.


    El futuro del internet en vuelos

    Si el plan avanza según lo previsto, el Wi-Fi lento y costoso en aviones podría convertirse en cosa del pasado. Para 2028, volar podría significar ya no estar desconectado.

  • Hackean Axios en npm para distribuir malware

    Otro ataque más a la cadena de suministro, hackean Axios en npm para distribuir malware

    Otro ataque más a la cadena de suministro

    La popular librería de JavaScript Axios, utilizada por millones de desarrolladores para enviar solicitudes HTTP entre aplicaciones y servicios web, fue comprometida en uno de los ataques a la cadena de suministro más graves registrados en el ecosistema npm.

    Con cerca de 100 millones de descargas semanales, el incidente encendió alarmas en toda la industria del software.


    Cómo ocurrió el ataque

    El ataque no explotó una vulnerabilidad del código de Axios. En cambio, los atacantes lograron secuestrar la cuenta de la persona responsable por mantener el proyecto y cambiar su correo por una bandeja anónima de ProtonMail.

    Desde ahí, los intrusos evitaron los controles automáticos del pipeline de GitHub Actions y publicaron manualmente versiones maliciosas en el registro de npm usando la línea de comando (CLI).

    En tan solo 39 minutos, se publicaron dos versiones comprometidas:

    • axios@1.14.1 (00:21 UTC)
    • axios@0.30.4 (01:00 UTC)

    Cualquier desarrollador que instaló estas versiones descargó malware sin saberlo.


    El caballo de Troya: un paquete falso llamado plain-crypto-js

    El ataque fue planeado minuciosamente. Los atacantes publicaron primero un paquete falso llamado plain-crypto-js para crear historial y credibilidad.

    18 horas después, lo actualizaron con código malicioso y lo añadieron como dependencia dentro de la versión comprometida de Axios.

    Su función real era actuar como puerta de entrada para un Remote Access Trojan (RAT).

    Tras la instalación, un script automático descargaba una segunda carga maliciosa adaptada al sistema operativo:

    • macOS: disfrazado como daemon del sistema
    • Windows: ejecución vía PowerShell
    • Linux: puerta trasera en Python

    Después de infectar el sistema, el malware eliminaba sus rastros para dificultar el análisis forense.


    Un ataque altamente sofisticado

    La firma de seguridad StepSecurity analizó el incidente y lo calificó como uno de los ataques más sofisticados contra npm.

    Según Ashish Kurmi, CTO y cofundador de la empresa:

    “No fue oportunista. Se prepararon tres cargas para distintos sistemas, se atacaron dos ramas en menos de una hora y todo fue diseñado para autodestruirse”.

    Este tipo de campañas confirma una tendencia preocupante: los atacantes están enfocándose directamente en la cadena de suministro del software.


    Riesgo crítico para desarrolladores y empresas

    Aunque npm eliminó rápidamente las versiones maliciosas, el daño potencial es enorme:

    • Equipos de desarrollo infectados
    • Pipelines CI/CD comprometidos
    • Posible filtración de credenciales y tokens
    • Riesgo de infiltración en entornos de producción

    Los expertos advierten que si instalaste esas versiones de Axios, debes asumir que tu sistema está comprometido.


    Qué hacer si tu proyecto fue afectado

    Las recomendaciones de seguridad son:

    1) Revertir versiones

    • Volver a una versión segura de Axios
    • Verificar la eliminación de la dependencia maliciosa

    2) Auditar pipelines

    • Revisar logs de CI/CD y despliegues recientes

    3) Rotar credenciales

    • Cambiar contraseñas, API keys y tokens

    4) Reconstruir entornos

    • Reinstalar máquinas y pipelines desde cero si es necesario

    Debido a la enorme presencia de Axios en el ecosistema global, las consecuencias de este ataque pueden perdurar.

  • Ollama acelera la IA local en la Mac usando el framework MLX de Apple

    Ollama acelera la IA local en la Mac usando el framework MLX de Apple
    Ollama acelera la IA local en la Mac usando el framework MLX de Apple

    Un paso importante para una mejor IA local

    La velocidad es uno de los factores más importantes al trabajar con modelos de lenguaje (LLM). Ahora, los desarrolladores que utilizan Ollama, la popular herramienta open source para ejecutar modelos de IA de forma local, recibirán un importante impulso de rendimiento en computadoras Mac con Apple Silicon.

    Con la actualización de Ollama a la versión 0.19, que actualmente está disponible en una versión preliminar, la plataforma integra el framework de machine learning MLX de Apple, lo que promete mejoras drásticas en la velocidad de procesamiento de IA.


    La ventaja de la memoria unificada en Apple Silicon

    Uno de los principales cuellos de botella en sistemas tradicionales es la separación entre la memoria del CPU y del GPU. Esto obliga a duplicar datos y transferirlos constantemente.

    La arquitectura de memoria unificada de Apple Silicon elimina este problema al ofrecer un único pool de memoria compartida. Gracias a la adopción de MLX, Ollama puede aprovechar completamente esta arquitectura y mejorar la eficiencia del manejo de datos.

    Además, MLX permite conectar múltiples Macs mediante Ethernet o Thunderbolt para distribuir cargas de trabajo, aunque las mejoras más notables se observan incluso usando un solo equipo.

    El salto de rendimiento es especialmente visible en los nuevos chips Apple M5, que incorporan aceleradores neuronales en la GPU.


    Resultados: prompts más rápidos y respuestas casi al doble de velocidad

    Las cifras muestran mejoras muy importantes:

    • Procesamiento de prompts: 1.6× más rápido
    • Prefill: de 1,154 tokens en Ollama 0.18 a 1,810 tokens en la versión 0.19
    • Velocidad de generación: de 58 tokens/segundo a 112 tokens/segundo

    Esto reduce significativamente el tiempo para obtener el primer token de respuesta (Time to First Token o TTFT) y acelera la generación de texto en general.


    Mejor gestión de memoria para uso prolongado

    La actualización no solo mejora la velocidad, Ollama 0.19 introduce:

    • Caché más eficiente
    • Checkpointing inteligente
    • Menor consumo de memoria
    • Mayor estabilidad en sesiones largas

    También añade soporte para el formato Nvidia NVFP4, que mantiene la precisión del modelo reduciendo el uso de ancho de banda.

    Estas mejoras benefician especialmente a asistentes locales y herramientas de programación con IA como OpenClawClaude CodeOpenCode y Codex.


    Requisitos y disponibilidad

    Por ahora, esta versión es preliminar y está enfocada en equipos de gama alta:

    • Macs con más de 32 GB de memoria unificada
    • Soporte inicial limitado al modelo Qwen3.5-35B-A3B de Alibaba, optimizado para tareas de programación

    El equipo de Ollama ya trabaja en ampliar la compatibilidad con más modelos y facilitar la importación de modelos personalizados.


    Por qué importa

    La integración de MLX marca un paso importante para la IA local en macOS. Con velocidades casi duplicadas y mejor eficiencia de memoria, los Macs con Apple Silicon se posicionan como una de las plataformas más atractivas para ejecutar LLM sin depender de la nube.

    LocalIntelligence, el mejor front-end para Ollama

    Si usan Ollama, les recomiendo usar mi programa LocalIntelligence que es un front-end gráfico para esa aplicación y que les permitirá realizar la mayor parte de las operaciones desde una GUI nativa de macOS, sin necesidad de tener que usar la línea de comando, incluyendo soporte completo para MCP (Model Context Protocol), la base de la IA basa en agentes.

    LocalIntelligence está disponible de forma gratuita en la App Store de Apple. Sin embargo, si van a usar un servidor MCP local, necesitarán bajar la versión notariada de mi página web personal, ya que esto requiere permisos adicionales que las aplicaciones del App Store no pueden obtener.

  • Pretext: la librería de 15KB que podría resolver un problema de rendimiento web de 30 años

    Pretext: la librería de 15KB que podría resolver un problema de rendimiento web viejo de 30 años
    Pretext: la librería de 15KB que podría resolver un problema de rendimiento web viejo de 30 años

    Un viejo problema

    Durante décadas, medir y posicionar texto en la web ha sido una trampa silenciosa de rendimiento. Cada vez que el navegador calcula el tamaño de un párrafo o dónde cortar una línea, ejecuta una de las tareas más costosas del rendering, a saber el reflow de layout.

    Ahora, el ingeniero Cheng Lou, creador de React Motion y senior engineer en Midjourney, presentó una solución radical, Pretext, una librería TypeScript de solo 15KB que mide texto multilinea hasta 600 veces más rápido que los métodos tradicionales.


    El costo oculto del texto en la web

    Renderizar texto parece simple, pero no lo es.

    Los navegadores deben manejar:

    • Emojis y modificadores de tono de piel
    • Ligaduras tipográficas
    • Sistemas de escritura sin espacios como el japonés o el chino
    • Idiomas RTL (right-to left) como el árabe o el hebreo que se escriben de derecha a izquierda

    Para medir el tamaño del texto, los desarrolladores normalmente insertan elementos invisibles en el DOM y consultan sus dimensiones. Esto provoca un reflow sincrónico, que según el equipo de Chrome DevTools puede bloquear el hilo principal entre 10 y 100 ms en móviles.

    Multiplica eso por cientos de bloques de texto y obtienes:

    • UI lenta
    • “Web jank”
    • Peor CLS (Cumulative Layout Shift)
    • Penalizaciones SEO

    El cambio de paradigma de Pretext

    Pretext rompe con el enfoque tradicional ya que no usa el DOM ni CSS para medir texto.

    Su método funciona en dos pasos:

    1) Medición sin reflow

    Utiliza canvas.measureText() para acceder al motor tipográfico del navegador sin activar layout.

    2) Cálculo matemático puro

    Con el ancho del contenedor, calcula:

    • Saltos de línea
    • Justificación
    • Altura total

    Resultado:

    • Método tradicional: 500 bloques → 15–30 ms + 500 reflows
    • Pretext: 500 bloques → 0.05 ms y 0 reflows

    No es solo optimización, es una nueva forma de pensar el layout.


    Nuevas posibilidades para interfaces y animación

    Separar el layout del DOM desbloquea varios casos de uso antes imposibles.

    Solución al problema histórico del SVG

    Desde su lanzamiento en 2003, SVG nunca ha ofrecido una solución adecuada al wrapping automático de texto.
    Con Pretext + herramientas tipográficas, ahora es posible generar texto SVG que se ajusta automaticamente.

    Interfaces modernas más precisas

    Permite crear:

    Renderizado en el servidor

    Funciona en Node.js y edge functions:

    • PDFs ultrarrápidos
    • Social cards dinámicas
    • Tipografía vectorial para impresión

    Animaciones avanzadas

    Pretext entrega coordenadas por carácter, permitiendo animaciones complejas a 60 FPS que romperían el motor de layout tradicional.


    Retos y limitaciones

    No todo está resuelto aún:

    • Replicar exactamente el comportamiento en todos los navegadores llevará tiempo
    • El texto renderizado fuera del DOM requiere reconstruir accesibilidad (screen readers, selección, etc.)

    Pueden ver más demos de Pretext aquí.


    Por qué importa para el futuro del frontend

    Pretext llena un vacío enorme en el desarrollo web moderno. Disponible como código abierto en npm, ofrece a los desarrolladores un control total y ultrarrápido sobre el elemento más básico de la web que es el texto.

    Si se adopta masivamente, podría cambiar cómo se construyen interfaces en internet durante la próxima década.

    Sin embargo, lo más importante podría terminar siendo que esta librería al fin hiciera que la W3C se fijara en este problema fundamental y definiera un nuevo estándar para resolver este problema de programación tan común que afecta a tantos desarrolladores de front-end.

  • Android 17 revoluciona la multitarea

    Android 17 revoluciona la multitarea mediante el uso generalizado de burbujas
    Android 17 revoluciona la multitarea mediante el uso generalizado de burbujas

    Burbujas por todos lados

    La multitarea en smartphones está a punto de cambiar por completo. Con la llegada de Android 17 Beta 3, Google presentó una nueva función que promete transformar la forma en que usamos el teléfono, mediante el uso de burbujas flotantes universales para cualquier app.

    Esta nueva ventana flotante elimina la necesidad de cambiar constantemente entre una aplicación y otra para ofrecer así una experiencia mucho más fluida y rápida.


    De las burbujas de chat a TODAS las apps

    El concepto no es completamente nuevo. Las burbujas nacieron hace años con Messenger y llegaron de forma nativa a Android 11 para chats. Ahora, Android 17 lleva la idea mucho más lejos.

    Con esta actualización podrás convertir cualquier aplicación en una burbuja flotante:

    • Ver videos mientras navegas
    • Consultar mapas sin salir de otra app
    • Mantener redes sociales o apps de IA siempre accesibles
    • Alternar entre apps sin abrir el menú de multitarea

    La burbuja queda flotando en el borde de la pantalla. Tocas para abrir una vista previa y vuelves a tocar para minimizarla.


    Control total del usuario (sin caos en pantalla)

    Google diseñó la función para que sea completamente opcional.

    Nada se fijará automáticamente:

    1. Mantén presionado el icono de la app
    2. Selecciona la opción “Bubble”
    3. Listo: la app queda disponible como ventana flotante

    Esto evita saturar la pantalla y deja la multitarea completamente bajo control del usuario.


    Mejor experiencia en tablets y plegables

    La función está optimizada para todo tipo de pantallas.

    En smartphones:

    • Ahorra espacio
    • Facilita cambiar entre apps rápidamente

    En tablets y plegables:

    • Nueva bubble bar (barra de burbujas) integrada en la barra de tareas
    • Posibilidad de arrastrar apps y fijarlas en la parte inferior
    • Organización más cómoda de múltiples burbujas

    Esto refuerza la apuesta de Android por dispositivos de gran pantalla.


    ¿Ventaja estratégica frente al iPhone?

    El lanzamiento llega en un momento clave del mercado móvil. Con los rumores sobre un futuro iPhone plegable de Apple, Android 17 busca adelantarse con una interfaz más flexible y productiva, aunque la multitarea es algo que ya tiene bastante bien resuelto Apple en su iPad.

    Las burbujas universales no son solo un cambio visual, representan un salto importante en productividad móvil y podrían convertirse en una de las funciones más influyentes de la nueva versión del sistema.