gadgetsgenial.es

Categoría: Uncategorized

  • Filtración de Claude Code: cómo un simple error expuso la hoja de ruta secreta de Anthropic

    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos
    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos

    Un simple error

    Incluso las empresas más avanzadas de inteligencia artificial pueden caer por errores humanos básicos. Anthropic lo comprobó recientemente cuando un fallo de empaquetado dejó expuesto el código fuente completo de su herramienta para desarrolladores Claude Code.

    Aunque los modelos de IA no se vieron comprometidos, la filtración reveló detalles fascinantes sobre la hoja de ruta de la compañía para 2026, incluyendo agentes autónomos, una función de “sueño nocturno” y hasta una mascota virtual estilo Tamagotchi dentro del terminal.


    Cómo ocurrió la filtración

    El problema fue detectado por el investigador de seguridad Chaofan Shou y se debió a un error sorprendentemente común: dejar un archivo .map en una versión de producción.

    Cuando Anthropic publicó la versión 2.1.88 del paquete npm @anthropic-ai/claude-code, incluyó accidentalmente un archivo que apuntaba a un archivo ZIP con el código TypeScript original sin ofuscar alojado en Cloudflare R2.

    El resultado:

    • ~1,900 archivos TypeScript
    • Más de 512,000 líneas de código
    • Un archivo comprimido de menos de 10 MB

    Eso sí, los pesos del modelo Claude nunca estuvieron expuestos.

    Anthropic confirmó que fue un error de empaquetado y no una brecha de seguridad ni exposición de datos de usuarios.


    Lo que reveló la hoja de ruta secreta de 2026

    Al explorar el código, la comunidad descubrió múltiples proyectos en desarrollo:

    Project ULTRAPLAN

    Un sistema de tareas autónomas en segundo plano que permitirá a Claude trabajar hasta 30 minutos sin supervisión, generando planes de acción detallados para aprobación humana.

    Project KAIROS (Always-On)

    Claude evolucionaría hacia un agente persistente con memoria a largo plazo.

    Incluye una función sorprendente: “Nightly Dreaming”, donde la IA organiza y limpia sus registros mientras el usuario duerme.

    Coordinator Mode

    Claude podrá clonarse en múltiples sub-agentes que trabajarán en paralelo bajo la supervisión de un “Master Claude”.

    Un nuevo modelo secreto

    El código menciona un modelo interno en pruebas llamado Capybara.

    Telemetría de frustración

    La herramienta registrará señales de frustración del usuario, como insultos al terminal o repetición del comando “continue”. Como usuario de Claude, puedo anticipar que esa medición va a reportar resultados bastante altos…


    Project BUDDY: la mascota virtual en la terminal

    La sorpresa más curiosa del leak fue Project BUDDY, una mascota virtual integrada en la CLI.

    Características:

    • Se genera automáticamente al “nacer” según el ID del usuario
    • Puede adoptar 18 formas (pato, robot, fantasma, axolote, capibara…)
    • Tiene estadísticas propias de un RPG: paciencia, sabiduría y caos
    • Incluye accesorios raros y variantes “shiny” estilo Pokémon

    Inicialmente planeado como broma del April Fool’s, podría convertirse en una función permanente.


    Consecuencias y lecciones para la industria

    El código filtrado fue rápidamente archivado en GitHub y llegó a tener más de 41,500 forks antes de ser retirado por motivos legales.

    El incidente deja una lección clara para toda la industria: incluso los equipos más avanzados pueden fallar en sus pipelines de despliegue.

    Un simple error en .npmignore o package.json puede exponer proyectos completos.

    Para Anthropic, la sorpresa se perdió. Para los desarrolladores, fue una clase magistral sobre arquitectura CLI y sobre lo peligrosos que pueden ser los errores de empaquetado.

  • Pretext: la librería de 15KB que podría resolver un problema de rendimiento web de 30 años

    Pretext: la librería de 15KB que podría resolver un problema de rendimiento web viejo de 30 años
    Pretext: la librería de 15KB que podría resolver un problema de rendimiento web viejo de 30 años

    Un viejo problema

    Durante décadas, medir y posicionar texto en la web ha sido una trampa silenciosa de rendimiento. Cada vez que el navegador calcula el tamaño de un párrafo o dónde cortar una línea, ejecuta una de las tareas más costosas del rendering, a saber el reflow de layout.

    Ahora, el ingeniero Cheng Lou, creador de React Motion y senior engineer en Midjourney, presentó una solución radical, Pretext, una librería TypeScript de solo 15KB que mide texto multilinea hasta 600 veces más rápido que los métodos tradicionales.


    El costo oculto del texto en la web

    Renderizar texto parece simple, pero no lo es.

    Los navegadores deben manejar:

    • Emojis y modificadores de tono de piel
    • Ligaduras tipográficas
    • Sistemas de escritura sin espacios como el japonés o el chino
    • Idiomas RTL (right-to left) como el árabe o el hebreo que se escriben de derecha a izquierda

    Para medir el tamaño del texto, los desarrolladores normalmente insertan elementos invisibles en el DOM y consultan sus dimensiones. Esto provoca un reflow sincrónico, que según el equipo de Chrome DevTools puede bloquear el hilo principal entre 10 y 100 ms en móviles.

    Multiplica eso por cientos de bloques de texto y obtienes:

    • UI lenta
    • “Web jank”
    • Peor CLS (Cumulative Layout Shift)
    • Penalizaciones SEO

    El cambio de paradigma de Pretext

    Pretext rompe con el enfoque tradicional ya que no usa el DOM ni CSS para medir texto.

    Su método funciona en dos pasos:

    1) Medición sin reflow

    Utiliza canvas.measureText() para acceder al motor tipográfico del navegador sin activar layout.

    2) Cálculo matemático puro

    Con el ancho del contenedor, calcula:

    • Saltos de línea
    • Justificación
    • Altura total

    Resultado:

    • Método tradicional: 500 bloques → 15–30 ms + 500 reflows
    • Pretext: 500 bloques → 0.05 ms y 0 reflows

    No es solo optimización, es una nueva forma de pensar el layout.


    Nuevas posibilidades para interfaces y animación

    Separar el layout del DOM desbloquea varios casos de uso antes imposibles.

    Solución al problema histórico del SVG

    Desde su lanzamiento en 2003, SVG nunca ha ofrecido una solución adecuada al wrapping automático de texto.
    Con Pretext + herramientas tipográficas, ahora es posible generar texto SVG que se ajusta automaticamente.

    Interfaces modernas más precisas

    Permite crear:

    Renderizado en el servidor

    Funciona en Node.js y edge functions:

    • PDFs ultrarrápidos
    • Social cards dinámicas
    • Tipografía vectorial para impresión

    Animaciones avanzadas

    Pretext entrega coordenadas por carácter, permitiendo animaciones complejas a 60 FPS que romperían el motor de layout tradicional.


    Retos y limitaciones

    No todo está resuelto aún:

    • Replicar exactamente el comportamiento en todos los navegadores llevará tiempo
    • El texto renderizado fuera del DOM requiere reconstruir accesibilidad (screen readers, selección, etc.)

    Pueden ver más demos de Pretext aquí.


    Por qué importa para el futuro del frontend

    Pretext llena un vacío enorme en el desarrollo web moderno. Disponible como código abierto en npm, ofrece a los desarrolladores un control total y ultrarrápido sobre el elemento más básico de la web que es el texto.

    Si se adopta masivamente, podría cambiar cómo se construyen interfaces en internet durante la próxima década.

    Sin embargo, lo más importante podría terminar siendo que esta librería al fin hiciera que la W3C se fijara en este problema fundamental y definiera un nuevo estándar para resolver este problema de programación tan común que afecta a tantos desarrolladores de front-end.

  • LeWorldModel de Yann LeCun nos acerca a una IA que entiende el mundo físico

    IA
    LeWorldModel de Yann LeCun nos acerca a una IA que entiende el mundo físico

    Más allá de los LLM

    Durante años, el pionero de la inteligencia artificial Yann LeCun ha criticado la obsesión de la industria por los modelos de lenguaje (LLM). Según él, sistemas como ChatGPT pueden imitar el lenguaje, pero no comprenden el mundo real ni pueden planificar de forma auténtica.

    Su apuesta ha sido otra, crear World Models, una nueva clase de modelos de IA capaces de entender la física, predecir dinámicas del mundo real e impulsar la próxima generación de robots.

    Ahora, ese objetivo acaba de dar un salto enorme con LeWorldModel (LeWM), una investigación presentada en 2026 por investigadores de un consorcio de Mila, New York University, Samsung SAIL y Brown University, que incluía a Yann LeCun.


    IA que aprende física directamente de píxeles

    El gran avance de LeWorldModel es que demuestra que una IA puede aprender leyes físicas sin sensores complejos ni supercomputadoras, solo a partir de imágenes.

    El sistema pertenece a la familia de arquitecturas JEPA (Joint-Embedding Predictive Architectures), que predicen la estructura de una escena en un «espacio latente» en lugar de generar píxeles directamente.

    Hasta ahora, estos modelos sufrían problemas graves:

    • Colapso de representación (dejaban de predecir correctamente)
    • Entrenamiento complejo y poco estable
    • Dependencia de múltiples pérdidas y supervisión externa

    LeWorldModel simplifica radicalmente el proceso.


    Entrenamiento estable con solo dos funciones de pérdida

    La clave del avance está en su diseño minimalista:

    • Next-Embedding Predictive Autoregression (NEPA)
    • Un nuevo regularizador llamado SIGReg

    Este regularizador fuerza que el espacio latente tenga una distribución gaussiana, evitando que el modelo “haga trampa” o colapse.

    Resultado, el número de hiperparámetros baja de seis a solo uno.


    Sorprendente eficiencia: solo 15 millones de parámetros

    Mientras los LLM actuales tienen cientos de miles de millones de parámetros, LeWorldModel funciona con apenas 15 millones.

    Esto permite:

    • Entrenar el modelo en tan solo unas horas
    • Usar una sola GPU
    • Planificar únicamente en base a imágenes

    El modelo codifica cada fotograma como un token de 192 dimensiones y puede planificar acciones 48 veces más rápido que modelos más pesados como DINO-WM.

    Un ejemplo:

    • DINO-WM tarda 47 segundos en planificar
    • LeWM lo hace en 1 segundo

    Pruebas de “intuición física” para la IA

    Para validar que realmente comprende el mundo, el modelo fue evaluado en múltiples tareas:

    • Navegación en entornos 2D
    • Control de brazos robóticos
    • Manipulación de objetos
    • Pick & place en 3D

    Los resultados fueron sorprendentes:

    • Superó a modelos base en varias pruebas
    • Rivalizó con modelos mucho más grandes
    • Detectó eventos físicamente imposibles mediante pruebas de “violación de expectativas”

    Por ejemplo, el sistema identificó como anómalos eventos como objetos moviéndose contra la gravedad.


    El impacto en la robótica y el futuro de la IA

    Aunque aún no está listo para robots domésticos, LeWorldModel es una prueba de concepto clave para el futuro de la IA física.

    El proyecto también está ligado a AMI Labs, la startup fundada en Francia por LeCun en 2026 y valorada en 3,500 millones de dólares.

    Si un modelo tan pequeño puede aprender conceptos básicos de espacio, gravedad y movimiento, el futuro de la robótica eficiente y accesible podría estar más cerca de lo que imaginamos.


    El inicio de una nueva generación de IA

    LeWorldModel demuestra que la evolución de la inteligencia artificial no dependerá únicamente de modelos gigantes y centros de datos masivos.

    El siguiente gran salto podría venir de sistemas más ligeros, eficientes y capaces de comprender el mundo físico.

  • Apple lanza Tap to Pay en iPhone en México

    Apple lanza Tap to Pay en iPhone en México
    Apple lanza Tap to Pay en iPhone en México

    Los pagos sin terminal ya son una realidad

    Apple sigue expandiendo su ecosistema de pagos y ahora confirma la llegada de Tap to Pay en iPhone a México, permitiendo a negocios aceptar pagos sin contacto directamente desde su smartphone.

    Con esta función, el iPhone se convierte en una terminal de punto de venta (POS) sin necesidad de hardware adicional.


    Qué es Tap to Pay en iPhone

    Tap to Pay on iPhone permite a comercios aceptar:

    • Tarjetas contactless (crédito y débito)
    • Apple Pay
    • Otras billeteras digitales

    Todo usando únicamente un iPhone (modelo XS o posterior) con tecnología NFC.


    Cómo funciona

    El proceso es simple:

    1. El comerciante abre una app compatible
    2. Ingresa el monto a cobrar
    3. El cliente acerca su tarjeta o dispositivo al iPhone

    En segundos, el pago se completa de forma segura, sin necesidad de terminal física.


    Plataformas compatibles en México

    En esta primera fase, Tap to Pay en iPhone funciona con:

    • Adyen
    • Clip
    • Mercado Pago
    • Visa (Visa Acceptance Platform)

    Esto facilita su adopción tanto para pequeños negocios como grandes comercios.


    Ventajas clave para negocios

    Sin hardware adicional

    Elimina la necesidad de terminales o lectores de tarjetas.

    Seguridad integrada

    Utiliza la misma tecnología que Apple Pay, sin almacenar datos de tarjetas ni en el dispositivo ni en servidores de Apple.

    Movilidad total

    Ideal para:

    • Freelancers
    • Negocios pequeños
    • Ventas en campo o eventos

    Expansión global y llegada a México

    Tap to Pay en iPhone debutó en Estados Unidos en 2022 y se ha expandido gradualmente a múltiples países.

    Con su llegada a México, Apple completa su despliegue en Norteamérica, consolidando su apuesta por pagos móviles sin fricción.


    Un impulso para la digitalización en México

    La llegada de Tap to Pay on iPhone representa un avance importante para la adopción de pagos digitales en el país.

    Al eliminar barreras de entrada como el hardware, Apple facilita que más negocios, desde pequeños emprendedores hasta grandes retailers, puedan aceptar pagos electrónicos de forma rápida, segura y accesible.

    El siguiente paso será ver qué tan rápido se adopta esta tecnología en el mercado mexicano.

  • iRacing llega al Apple Vision Pro

    iRacing llega al Apple Vision Pro
    iRacing llega al Apple Vision Pro

    Así será la experiencia inversiva de simulación de carreras

    El simulador de carreras iRacing da el salto a la realidad mixta con su llegada al Apple Vision Pro, prometiendo un nivel de inmersión “nunca antes visto”, según su presidente, Tony Gardner.

    Esta nueva compatibilidad se habilita con la actualización visionOS 26.4, que introduce importantes avances tecnológicos enfocados en experiencias de alto rendimiento.


    Sim racing en realidad mixta: más real que nunca

    La integración de iRacing con el Vision Pro no es una simple adaptación. Apple utiliza su tecnología ARKit para fusionar el entorno real con el virtual.

    Esto permite:

    • Ver tus propias manos sobre el volante físico
    • Alinear el volante real con el virtual dentro del juego
    • Mantener contacto visual con tu setup mientras conduces

    El resultado es una experiencia híbrida donde el cockpit virtual se integra perfectamente con tu equipo físico.


    Foveated streaming: la clave del rendimiento

    Una de las grandes novedades de visionOS 26.4 es el soporte para “foveated streaming”, impulsado por la tecnología NVIDIA CloudXR de NVIDIA.

    Este sistema:

    • Renderiza con máxima calidad solo donde estás mirando
    • Reduce la carga gráfica total
    • Mejora la fluidez y latencia

    En la práctica, el procesamiento pesado ocurre en una PC con GPU RTX, mientras que el Vision Pro recibe el contenido vía streaming por Wi-Fi.


    Cómo funciona la arquitectura técnica

    El sistema combina varios elementos:

    • Un PC potente realiza cálculos físicos y renderizado
    • Los frames se codifican y transmiten inalámbricamente
    • La app iRacing Connect en visionOS reproduce la experiencia en tiempo real

    Esto permite gráficos de alta fidelidad sin depender completamente del hardware del visor.


    Más allá de iRacing: nuevas apps compatibles

    La actualización también trae soporte para otros simuladores, como X-Plane, que llega por primera vez al ecosistema del Vision Pro.

    Además, NVIDIA adelantó que esta tecnología tendrá aplicaciones en sectores como:

    • Manufactura
    • Diseño industrial
    • Salud

    Lanzamiento inminente

    Apple ya liberó la versión candidata (Release Candidate) de visionOS 26.4, y todo indica que la versión final llegará esta misma semana.


    El futuro del sim racing

    La llegada de iRacing al Apple Vision Pro marca un paso importante en la evolución de la simulación.

    Al combinar realidad mixta, streaming avanzado y hardware de alto rendimiento, Apple y sus socios están redefiniendo cómo se experimentan los simuladores, acercándolos más que nunca a la sensación de conducción real.

  • Nvidia presenta DLSS 5: el “momento GPT” para los gráficos de videojuegos

    Jensen Huang, el CEO de Nvidia, quien presento la nueva tecnologia DLSS 5
    Jensen Huang, el CEO de Nvidia, quien presento la nueva tecnologia DLSS 5

    Nvidia quiere redefinir la forma en que se renderizan los videojuegos. Durante la conferencia Nvidia GTC de 2026, el CEO Jensen Huang presentó DLSS 5, la próxima generación de su tecnología de escalado basada en inteligencia artificial.

    Huang describió este avance como “el momento GPT para los gráficos”, sugiriendo que podría representar el mayor salto tecnológico desde la introducción del ray tracing en tiempo real en 2018. Este anuncio lo hizo el mismo día en el que Sony lanzó el PSSR 2 para PlayStation 5 Pro.


    De reescalar imágenes a generar gráficos

    Las versiones anteriores de Deep Learning Super Sampling (DLSS) utilizaban redes neuronales principalmente para:

    • Escalar imágenes desde resoluciones más bajas
    • Generar fotogramas adicionales para mejorar el rendimiento

    DLSS 5 da un paso más allá.

    Según Nvidia, la nueva tecnología utiliza una tecnología llamada “neural rendering”, que combina datos del motor gráfico, como geometría 3D, colores y vectores de movimiento, con un modelo de IA capaz de generar detalles visuales realistas en tiempo real.

    Esto permite mejorar automáticamente aspectos como:

    • Iluminación compleja
    • Materiales realistas
    • Detalles de piel, cabello y tejidos

    Demostraciones con gráficos hiperrealistas

    Durante la presentación, Nvidia mostró comparaciones en tiempo real con DLSS 5 activado y desactivado en varios juegos populares, entre ellos:

    • Resident Evil: Requiem
    • Starfield
    • Hogwarts Legacy
    • EA Sports FC

    En los ejemplos, los personajes pasaban de tener rostros planos y artificiales a modelos mucho más realistas con:

    • Reflejos naturales en los ojos
    • Imperfecciones en la piel
    • Cabello y barba con hebras individuales

    La IA también puede generar efectos complejos como subsurface scattering, el fenómeno por el cual la luz penetra ligeramente en la piel antes de reflejarse.


    Renderizado cinematográfico, en tiempo real

    Normalmente, lograr ese nivel de realismo requiere enormes tiempos de procesamiento. Los efectos visuales de cine pueden tardar horas en renderizar un solo fotograma, y los generadores de video por IA como Sora necesitan varios segundos o minutos para producir resultados.

    DLSS 5, en cambio, realiza este proceso en tiempo real, generando imágenes en apenas 16 milisegundos, lo que permite jugar en resoluciones de hasta 4K.


    Controversia entre desarrolladores y jugadores

    El anuncio, sin embargo, ha generado debate.

    A diferencia de versiones anteriores, DLSS 5 no solo mejora la imagen existente, sino que genera nuevos detalles visuales mediante IA. Algunos críticos argumentan que esto podría alterar la intención artística original de los desarrolladores.

    Otros comparan el resultado con filtros de IA que “embellecen” imágenes en fotografía y video, algo que algunos jugadores consideran artificial.

    También se cuestionó la forma en que Nvidia mostró las comparaciones: las demostraciones enfrentaban DLSS 5 contra versiones de los juegos sin tecnologías de escalado activadas, lo que dificulta medir la mejora real frente a configuraciones máximas con versiones anteriores como DLSS 4.5.


    Un enorme desafío de hardware

    Ejecutar un modelo generativo de video en tiempo real exige una potencia de cálculo considerable.

    Durante la demostración en GTC, Nvidia utilizó dos tarjetas gráficas GeForce RTX 5090:

    • Una dedicada a renderizar el juego
    • Otra dedicada exclusivamente a ejecutar el modelo de DLSS 5

    La compañía asegura que cuando la tecnología llegue al mercado este otoño podrá funcionar con una sola GPU, aunque probablemente seguirá requiriendo hardware de gama alta.


    El futuro de los gráficos impulsados por IA

    Como en versiones anteriores de DLSS, los desarrolladores deberán integrar manualmente la tecnología en sus juegos.

    Varios grandes editores ya han confirmado su interés, incluyendo:

    • Bethesda Softworks
    • Capcom
    • NCSoft
    • Tencent
    • Warner Bros. Games

    Con DLSS 5, Nvidia apuesta claramente por un futuro donde los videojuegos mezclen gráficos 3D tradicionales con generación visual mediante inteligencia artificial.

    La gran incógnita ahora es si los jugadores aceptarán estos píxeles generados por IA como una evolución natural del medio o si los verán como una interferencia artificial en el arte del videojuego.

  • Apple celebra 50 años de “Think Different” mientras Tim Cook adelanta próximos festejos

    Un aniversario digno de festejar para Apple
    Un aniversario digno de festejar para Apple

    Apple es conocida por centrarse casi exclusivamente en el futuro. Sin embargo, con la llegada de su 50.º aniversario el próximo 1 de abril, su CEO, Tim Cook, ha decidido hacer una pausa para reflexionar sobre medio siglo de innovación (y aprovechar la oportunidad para una gran campaña de marketing).

    Para conmemorar la fecha, Cook publicó una carta abierta titulada “50 Years of Thinking Different”, dando inicio a una serie de celebraciones que la compañía planea realizar durante las próximas semanas.


    Un mensaje de agradecimiento a la comunidad de Apple

    En su carta, Cook reconoce que aunque la compañías suele mirar hacia adelante, pero considera que este aniversario merece un momento de reflexión.

    “En Apple estamos más enfocados en construir el mañana que en recordar el ayer”, escribe Cook. “Pero no podíamos dejar pasar este hito sin agradecer a los millones de personas que hacen que Apple sea lo que es hoy”.

    El mensaje funciona como un homenaje tanto a los equipos que desarrollan los productos de la compañía como a los usuarios que los utilizan para crear e innovar.

    Cook también hace referencia directa al famoso lema “Think Different”, recordando que “el mundo avanza gracias a las personas que piensan diferente”. La frase evoca la icónica campaña publicitaria lanzada a finales de los años noventa durante la etapa de Steve Jobs al frente de la empresa.


    Un guiño a los orígenes de Apple

    La carta incluye varios detalles visuales y conceptuales que remiten a los primeros años de la compañía.

    Su formato recuerda al memorando de marketing escrito en 1976 por Mike Markkula, uno de los primeros ejecutivos clave de la empresa, en el que estableció el principio fundamental de poner siempre al cliente en el centro.

    Cook retoma esa filosofía al afirmar que los productos de actuales son solo el punto de partida:

    “En sus manos, las herramientas que creamos han mejorado vidas y, a veces, incluso las han salvado”.


    Cinco décadas de productos que cambiaron la industria

    Desde su fundación el 1 de abril de 1976, la compañía ha lanzado algunos de los dispositivos más influyentes de la industria tecnológica, entre ellos:

    • Apple II (mi primera computadora)
    • Macintosh
    • iPod
    • iPhone
    • iPad
    • Apple Watch
    • Apple Vision Pro

    Además del hardware, la compañía también creó servicios que hoy forman parte del día a día de millones de usuarios, como:

    • App Store
    • Apple Music
    • Apple Pay
    • iCloud

    Desde sus inicios, la empresa se ha definido por operar en la intersección entre la tecnología y las artes liberales, una filosofía que ha guiado su enfoque en el diseño y la experiencia de usuario.


    Celebraciones públicas en camino

    Aunque la carta de Cook marca el inicio simbólico del aniversario, se ha confirmado que los festejos oficiales se anunciarán en las próximas semanas.

    Por ahora, la compañía no ha revelado detalles concretos, pero adelantó que las celebraciones destacarán la creatividad, innovación e impacto global que han surgido alrededor de la tecnología de Apple.


    Mirando hacia los próximos 50 años

    A pesar del tono nostálgico del mensaje, Tim Cook aprovechó la ocasión para reafirmar su enfoque en el futuro. Entre sus prioridades se encuentran:

    • El desarrollo de Apple Intelligence
    • Avances en chips propios Apple Silicon
    • Nuevas iniciativas en privacidad y accesibilidad
    • Proyectos en educación y sostenibilidad ambiental

    Mientras Apple celebra medio siglo de historia, el mensaje de Tim Cook es claro: la compañía honra su legado, pero sigue enfocada en las próximas décadas de innovación y en continuar pensando diferente.