gadgetsgenial.es

Autor: Huibert Aalbers

  • De la guerra a la cancha de tenis: el ascenso imparable de los robots humanoides

    Un año de grandes avances

    El año 2026 está marcando un punto de inflexión en la historia de la robótica. Los robots humanoides, durante décadas limitados a laboratorios o entornos industriales controlados, comienzan a aparecer en el mundo real con una versatilidad sorprendente. Desde misiones militares hasta deportes complejos, estas máquinas están demostrando capacidades de adaptación impulsadas por los rápidos avances de la inteligencia artificial.


    El campo de batalla como laboratorio

    La guerra iniciada por Rusia con la invasión a Ucrania ha convertido a este último país en un terreno de pruebas para nuevas tecnologías militares.

    Según reportes publicados por la revista Time en marzo de 2026, la startup californiana Foundation envió dos robots humanoides Phantom MK-1 al frente para realizar misiones de reconocimiento.

    Estos robots miden aproximadamente 1,75 metros y pesan unos 80 kg, y están diseñados para operar en entornos hostiles.

    Su principal ventaja es su forma humanoide. A diferencia de robots con ruedas o patas mecánicas tipo cuadrúpedo, el Phantom MK-1 puede usar armamento estándar de infantería, como rifles del tipo M16.

    Además:

    • Puede transportar equipamiento militar convencional
    • Tiene una firma térmica similar a la de un soldado humano
    • Puede moverse en entornos diseñados para personas

    Sin embargo, el despliegue de este tipo de robots plantea desafíos técnicos y éticos importantes, especialmente en un frente donde la guerra electrónica y el bloqueo de comunicaciones son constantes.

    Una cuestión clave es cuánto control humano deben tener estas máquinas. ¿Deben operar completamente a distancia o tomar decisiones autónomas en el campo de batalla?


    Robots que aprenden a jugar tenis

    Mientras algunos robots se prueban en escenarios militares, otros están demostrando habilidades sorprendentemente precisas en entornos civiles.

    Un ejemplo es el robot humanoide Unitree G1, desarrollado por la empresa china Unitree Robotics.

    Con apenas 1,30 metros de altura y 35 kg, este robot ha aprendido a jugar tenis gracias a un proyecto llamado LATENT, desarrollado por investigadores de la universidad de Tsinghua junto con la empresa Galbot.

    Lo más sorprendente es la cantidad de datos necesarios para entrenarlo.

    Los investigadores utilizaron solo cinco horas de datos de captura de movimiento de jugadores humanos.


    Aprendizaje a partir de movimientos imperfectos

    El sistema no necesitó partidos completos ni movimientos perfectos.

    En cambio, la IA aprendió a partir de fragmentos de acciones, como:

    • Golpes de derecha
    • Golpes de revés
    • Desplazamientos laterales

    Estos fragmentos se convierten en una especie de biblioteca de “habilidades primitivas”.

    Una segunda capa de inteligencia artificial analiza en tiempo real:

    • La trayectoria de la pelota
    • Su velocidad
    • La posición del robot

    y decide qué movimiento ejecutar y hacia qué zona de la cancha dirigir el golpe.

    Para entrenar el sistema, los investigadores utilizaron una técnica conocida como sim-to-real, donde el robot primero aprende en simulaciones físicas con ruido y errores artificiales antes de enfrentarse al mundo real.

    El resultado es notable: el robot logra un 90,9 % de éxito en golpes de derecha, devolviendo pelotas que viajan hasta 15 metros por segundo.


    Un cambio tecnológico profundo

    Ya sea en el frente de guerra o en una cancha deportiva, la tendencia es clara.

    Los robots humanoides están pasando de Imitar la forma de moverse de los humanos a aprender y ejecutar habilidades humanas complejas.

    Además, las nuevas técnicas de aprendizaje permiten que los robots necesiten cada vez menos datos para adquirir nuevas capacidades.

    La combinación de:

    • Diseño antropomórfico
    • Inteligencia artificial avanzada
    • Simulación física realista

    está acelerando el desarrollo de máquinas capaces de interactuar con el mundo humano como nunca antes.

    Si esta tendencia continúa, los robots humanoides podrían convertirse en una tecnología clave de las próximas décadas, transformando desde la defensa y la industria hasta el deporte y la vida cotidiana.

  • Una “mosca digital” causa sensación en internet, pero la realidad científica es más compleja

    Nos acercamos a la realidad de la serie «Upload» de Amazon Prime Video

    Un video que muestra a una mosca de la fruta digital caminando, limpiándose las patas y reaccionando a estímulos se ha vuelto viral en redes sociales, generando comparaciones con escenas de ciencia ficción. Las imágenes fueron publicadas por la startup Eon Systems y rápidamente se difundieron en plataformas como X y Reddit.

    La empresa describió el experimento en términos ambiciosos. Su CEO, Michael Andregg, afirmó que se trata de “un animal real subido a un sistema digital”, mientras que el cofundador Alexander Wissner-Gross lo calificó como “la primera encarnación de una emulación completa de cerebro”. Incluso sugirió que este tipo de avances podría acercar a la humanidad a una eventual singularidad tecnológica.

    Sin embargo, aunque el marketing es llamativo y que detrás del proyecto sí existe un logro científico real, este último es menos espectacular de lo que algunos titulares sugieren.


    El cerebro digital de una mosca

    El modelo se basa en el conectoma completo del cerebro de una mosca adulta de la especie Drosophila melanogaster.

    Este mapa cerebral fue publicado recientemente por el proyecto científico Flywire y representa una reconstrucción tridimensional extremadamente detallada que incluye:

    • Aproximadamente 125.000 neuronas
    • Alrededor de 50 millones de sinapsis

    En esencia, es un mapa que muestra cómo están conectadas todas las neuronas del cerebro de una determinada mosca.


    Cómo se creó la simulación

    Eon Systems no “copió” un cerebro real a una computadora. En cambio, combinó varias herramientas científicas ya existentes.

    Primero, el conectoma fue procesado mediante el simulador de redes neuronales de código abierto Brian2.

    Luego, el cerebro digital se conectó a un modelo virtual del cuerpo de la mosca llamado NeuroMechFly, que reproduce:

    • Patas
    • Antenas
    • Aparato bucal

    Finalmente, el entorno físico se simuló con el motor de física MuJoCo.

    El resultado fue una especie de “criatura digital” donde un cerebro simulado controla un cuerpo virtual.


    Comportamientos similares a los de una mosca real

    Cuando la simulación se ejecutó, el modelo produjo comportamientos reconocibles:

    • La mosca digital caminó
    • Se detuvo para limpiarse las antenas
    • Reaccionó a señales químicas simuladas

    Por ejemplo, cuando el sistema recibió un estímulo digital equivalente al olor del azúcar, el modelo extendió su probóscide para “lamer”.


    Un avance importante, según expertos

    Algunos científicos consideran que la demostración es un paso relevante en la neurociencia computacional.

    El investigador Steve Furber, co-creador del procesador ARM, calificó el trabajo como “bastante impresionante”.

    Furber señaló que proyectos anteriores que intentaban conectar cerebros simulados con cuerpos digitales, como modelos de ratones, resultaron demasiado complejos. Lograrlo con una mosca representa un primer paso prometedor.


    Las limitaciones del experimento

    Aun así, varios expertos advierten que el sistema no reproduce fielmente un cerebro biológico.

    Entre las principales limitaciones se encuentran:

    • El modelo funciona más como un sistema de aprendizaje automático adaptado a la estructura cerebral
    • Recibe inputs (entradas) simplificados, no estímulos sensoriales reales
    • La actividad neuronal no replica completamente la dinámica de un cerebro vivo

    Además, existe el problema del costo computacional. Aunque los videos se ven fluidos, es muy probable que generar apenas unos segundos de comportamiento haya requerido semanas o incluso meses de procesamiento.


    Un primer paso técnico, no un “animal digital”

    Por ahora, el experimento no representa un organismo consciente ni un cerebro completamente emulado.

    Aún estamos muy lejos de escenarios como insectos digitales controlando robots o drones.

    Sin embargo, al conectar con éxito un cerebro simulado con un cuerpo virtual y producir comportamientos biológicos plausibles, el equipo ha demostrado un hito técnico real en la simulación neuronal.

    Y aunque la realidad sea menos espectacular que la narrativa de ciencia ficción que muchos presentaron en redes sociales, este tipo de avances sigue mostrando cómo la neurociencia y la inteligencia artificial se acercan cada vez más a modelar sistemas biológicos complejos.

  • Sony mejora el escalado por IA de la PS5 Pro con PSSR 2

    Sony mejora el escalado por IA de la PS5 Pro con PSSR 2
    Sony mejora el escalado por IA de la PS5 Pro con PSSR 2

    Sony ha lanzado una importante actualización para su tecnología de escalado por inteligencia artificial PlayStation Spectral Super Resolution (PSSR), diseñada específicamente para la consola PlayStation 5 Pro.

    La nueva versión, conocida informalmente como PSSR 2, supone un salto significativo en calidad visual y rendimiento, hasta el punto de que algunos analistas consideran que finalmente justifica la existencia de la PS5 Pro.


    ¿Qué es PSSR?

    PSSR es una tecnología de reescalado basada en inteligencia artificial similar a Nvidia DLSS en PC.

    Su objetivo es permitir que los videojuegos:

    1. Rendericen a una resolución más baja
    2. Sean reconstruidos mediante IA
    3. Se muestren como una imagen nítida en 4K

    Esto reduce la carga gráfica necesaria para renderizar el juego en resolución nativa, lo que permite que los desarrolladores utilicen la potencia extra de la consola en otras áreas como:

    • Iluminación avanzada
    • Ray tracing
    • Modelos físicos más complejos
    • Mantener 60 fps estables

    Debido a que requiere hardware especializado de aprendizaje automático, PSSR solo está disponible en la PS5 Pro y no funciona en la PlayStation 5 estándar.


    Los problemas de la primera versión

    La primera implementación de PSSR generó expectativas, pero también críticas.

    El sistema debía “reconstruir” la imagen mediante IA, lo que provocaba algunos problemas visuales como:

    • Parpadeos en texturas
    • Efecto shimmering (vibración de bordes)
    • Artefactos gráficos

    En ciertos casos, los especalistas técnicos de Digital Foundry incluso señalaron que algunos juegos podían verse peor en la PS5 Pro que en la consola base.


    Llega PSSR 2

    La nueva actualización corrige gran parte de esos problemas.

    El desarrollo forma parte del Project Amethyst, una colaboración entre Sony y Advanced Micro Devices (AMD).

    Entre las mejoras destacan:

    • Reducción significativa de artefactos visuales
    • Imágenes más estables y definidas
    • Mejor reconstrucción de texturas
    • Sin pérdida adicional de rendimiento

    El periodista Oliver Mackenzie describió la actualización como “una mejora enorme respecto a PSSR 1”.


    Juegos que ya aprovechan la mejora

    El nuevo PSSR empezó a aparecer discretamente en algunos títulos, pero ahora llega a una lista más amplia de juegos populares.

    Entre ellos:

    • Final Fantasy VII Rebirth
    • Silent Hill 2 Remake
    • Silent Hill f
    • Dragon Age: The Veilguard
    • Monster Hunter Wilds
    • Dragon’s Dogma 2
    • Rise of the Ronin
    • Alan Wake 2
    • Control
    • Senua’s Saga: Hellblade II
    • Nioh 3
    • Crimson Desert

    Otros títulos importantes recibirán soporte en próximas actualizaciones, como:

    • Cyberpunk 2077
    • Assassin’s Creed Shadows

    Una tecnología que seguirá mejorando

    A diferencia de los métodos tradicionales de renderizado, los sistemas basados en IA mejoran con el tiempo.

    El algoritmo aprende a reconstruir imágenes con mayor precisión a medida que se entrena con más datos de videojuegos.

    Para Sony, este enfoque también tiene una implicación estratégica: cuando llegue la próxima generación de consolas, la futura PlayStation 6, la tecnología PSSR podría estar mucho más madura, permitiendo gráficos más avanzados sin depender completamente del renderizado nativo.

    Por ahora, con la llegada de PSSR 2, los usuarios de PS5 Pro finalmente empiezan a ver la experiencia gráfica de alta fidelidad que Sony prometía desde el lanzamiento de la consola.

  • Apple adquiere MotionVFX para reforzar Final Cut Pro y su ecosistema de edición profesional

    Apple adquiere MotionVFX
    Apple adquiere MotionVFX

    Apple sigue adquiriendo empresas pequeñas

    Apple ha adquirido la empresa de efectos visuales MotionVFX, una de las empresas creadoras de plugins y herramientas de gráficos en movimiento para Final Cut Pro más reconocidas del mercado. La operación apunta a fortalecer el ecosistema de edición de video profesional de Apple tanto en Mac como en iPad.

    Fundada en 2009 por Szymon Masiak y con sede en Varsovia (Polonia), MotionVFX se ha convertido en una referencia para tanto para creadores de contenido, como para cineastas y editores de televisión, gracias a su catálogo de efectos visuales, transiciones y plantillas cinematográficas.

    Tras la compra, los 70 empleados de MotionVFX pasan a formar parte de Apple.


    Plugins esenciales para Final Cut Pro

    Durante más de una década, MotionVFX ha desarrollado herramientas que simplifican la creación de efectos complejos en Final Cut Pro.

    Entre sus plugins más populares destacan:

    • mFilmLook, que permite aplicar corrección de color y simulación de película cinematográfica
    • mO2, que permite insertar y manipular modelos 3D directamente en la línea de tiempo

    Antes de la adquisición, la empresa operaba bajo un modelo de suscripción que ofrecía unos 8.000 elementos gráficos y efectos por aproximadamente 30 dólares al mes.

    Una de sus grandes ventajas es su integración mediante el panel Design Studio, que permite:

    • Buscar efectos
    • Instalarlos
    • Utilizarlos directamente dentro de Final Cut Pro

    Esto facilita enormemente el trabajo frente a soluciones más complejas.


    Alternativa más simple que Motion 5

    La integración directa de MotionVFX ha sido especialmente atractiva para los editores porque evita depender de aplicaciones externas como Motion.

    Aunque Motion es una herramienta muy potente, su uso requiere:

    1. Crear los elementos en la aplicación
    2. Exportarlos
    3. Importarlos después a Final Cut Pro

    Las herramientas de MotionVFX, en cambio, permiten crear y aplicar efectos sin salir del editor, lo que acelera significativamente el flujo de trabajo.


    Un impulso clave para el Final Cut Pro del iPad

    La adquisición también podría tener un impacto importante en Final Cut Pro for iPad.

    Cuando Apple llevó su editor profesional al iPad, la aplicación Motion no fue incluida, lo que dejó un vacío en funciones avanzadas de gráficos y efectos.

    Al integrar la tecnología de MotionVFX, Apple podría:

    • Añadir gráficos en movimiento avanzados
    • Incorporar soporte para modelos 3D
    • Mejorar el seguimiento y los efectos visuales

    todo directamente dentro de Final Cut Pro en iPad, sin necesidad de portar Motion.


    Posible integración con Apple Creator Studio

    La compra también encaja con el reciente lanzamiento de Apple Creator Studio, un paquete de herramientas creativas con suscripción de:

    • 12,99 dólares al mes
    • 129 dólares al año

    Si Apple decide integrar la biblioteca completa de MotionVFX dentro de este servicio, el paquete podría ganar un enorme valor para creadores de contenido.


    Incertidumbre para otras plataformas

    Por ahora, Apple no ha hecho comentarios oficiales sobre la adquisición.

    Mientras tanto, MotionVFX sigue operando normalmente:

    • Sus plugins continúan disponibles en su sitio web
    • Su canal de YouTube sigue publicando tutoriales

    Sin embargo, algunos indicios sugieren cambios en camino. Los usuarios que intentan suscribirse ahora son redirigidos a una página de política de privacidad de Apple.

    Además, existe incertidumbre sobre el futuro de las versiones para otras plataformas como:

    • Adobe Premiere Pro
    • DaVinci Resolve

    Incluso un video reciente sobre plugins de MotionVFX para DaVinci Resolve en iPad fue eliminado de forma privada.


    Un movimiento estratégico para Apple

    Si Apple decide integrar completamente la tecnología de MotionVFX en Final Cut Pro, los editores podrían disponer de efectos cinematográficos avanzados con un solo clic, sin depender de plugins externos.

    Para los usuarios de Mac y iPad, la adquisición apunta a un futuro donde las herramientas de efectos visuales profesionales estarán integradas directamente en el ecosistema creativo de Apple. Es probable que esto también busque dar más valor a la suscripción al paquete Apple Creator Studio que fue anunciado a finales de enero de este año.

  • Apple presenta los AirPods Max 2 con chip H2 y mejor cancelación de ruido

    AirPods Max 2
    AirPods Max 2

    Apple ha presentado oficialmente los AirPods Max 2, la segunda generación de sus auriculares de diadema premium, más de cinco años después del lanzamiento del modelo original AirPods Max.

    Aunque el diseño exterior prácticamente no cambia, el nuevo modelo introduce una renovación interna completa gracias a la inclusion del chip H2, que permite logra mejoras importantes en audio, cancelación de ruido y funciones inteligentes. Apple mantiene el precio de US$549.


    Diseño prácticamente idéntico

    Por fuera, los AirPods Max 2 conservan el diseño característico del modelo original:

    • Estructura de acero inoxidable
    • Diadema con malla que permite transpirar
    • Copas de aluminio
    • Peso de aproximadamente 385 gramos

    También regresan los mismos colores introducidos en la actualización de 2024:

    • Midnight
    • Starlight
    • Orange
    • Purple
    • Blue

    Incluso vuelve el controvertido Smart Case que acompaña a los auriculares.


    El gran cambio: el chip H2

    La mayor novedad es la incorporación del Apple H2 chip, el mismo procesador que utilizan los AirPods Pro (de segunda generación).

    Este cambio reemplaza el antiguo H1 y permite varias mejoras clave:

    • Cancelación activa de ruido (ANC) hasta 1,5 veces más eficaz
    • Mejor procesamiento digital para el modo transparencia
    • Menor latencia de audio
    • Nuevas funciones inteligentes basadas en audio computacional

    Audio de mayor fidelidad

    Apple también incorporó un nuevo amplificador de alto rango dinámico, diseñado para ofrecer:

    • Graves más precisos
    • Medios más ricos
    • Agudos más claros

    Cuando se conectan mediante USB-C, los AirPods Max 2 ahora admiten audio sin pérdida de 24-bit / 48 kHz, una mejora importante para profesionales que usan software como Logic Pro.

    La conectividad inalámbrica también se actualiza a Bluetooth 5.3, reduciendo la latencia para juegos en dispositivos con iOS y macOS.


    Audio inteligente y Apple Intelligence

    Gracias al chip H2 y al sistema Apple Intelligence, los nuevos auriculares incluyen funciones adaptativas avanzadas:

    Audio Adaptativo
    Combina automáticamente cancelación de ruido y modo transparencia según el entorno.

    Detección de conversaciones
    Reduce el volumen de la música cuando el usuario comienza a hablar.

    Volumen personalizado
    Aprende los hábitos de escucha para ajustar automáticamente el volumen.

    Reducción de sonidos fuertes
    Reduce ruidos ambientales fuertes para proteger el oído.

    Aislamiento de voz
    Utiliza una matriz de nueve micrófonos para aislar la voz en llamadas.


    Traducción en tiempo real

    Una de las funciones más llamativas es la traducción en tiempo real, que permite traducir conversaciones en tiempo real junto con un iPhone.


    Funciones para creadores de contenido

    Apple también posiciona los AirPods Max 2 como herramienta para creadores.

    Las mejoras incluyen:

    • Grabación de voz con calidad de estudio
    • Micrófonos optimizados para podcasting y entrevistas
    • Función Camera Remote, que permite usar la Digital Crown para tomar fotos o iniciar video en un iPhone o iPad.

    Batería y disponibilidad

    A pesar del nuevo procesamiento de audio, los auriculares mantienen hasta 20 horas de autonomía con ANC activado.

    Los pedidos se podrán empezar a realizar el 25 de marzo en tanto en Estados Unidos como en más de 30 países y las primeras entregas se harán a principios de abril.

    Aunque algunos entusiastas del audio consideran que estas mejoras llegan tarde, los AirPods Max 2 representan un salto significativo en audio computacional, consolidando nuevamente a Apple en el segmento premium de auriculares. Es una lástima que Apple no haya logrado reducir el peso de este dispositivo, ya que para un uso continuo, termina siendo algo cansado.

  • Apple apuesta por estabilidad, una Siri más inteligente y mejoras en el diseño Liquid Glass en iOS 27

    Apple apuesta por estabilidad, una Siri más inteligente y mejoras en el diseño Liquid Glass en iOS 27
    Apple apuesta por estabilidad, una Siri más inteligente y mejoras en el diseño Liquid Glass en iOS 27

    Apple se prepara para presentar la próxima generación de sus sistemas operativos en la Worldwide Developers Conference de junio de 2026. Según diversos reportes, la actualización iOS 27, junto con macOS y iPadOS en su versión 27, adoptará un enfoque diferente al de otras versiones recientes: menos cambios visuales radicales y más énfasis en estabilidad, inteligencia artificial y refinamiento del diseño existente (Liquid Glass).


    La misma filosofía que en el caso de “Snow Leopard”

    La estrategia recuerda a la de Mac OS X Snow Leopard de 2009, cuando Apple priorizó rendimiento y corrección de errores por encima de nuevas funciones.

    De acuerdo con el periodista de Bloomberg Mark Gurman, Apple va a aplicar una filosofía similar para iOS 27, es decir mejorar el sistema desde dentro para que sea:

    • Más rápido
    • Más estable
    • Más eficiente

    Esto no significa que el sistema carezca de novedades, pero el foco principal estará en optimizar la experiencia general del usuario.


    Siri recibirá una renovación impulsada por IA

    La principal novedad de iOS 27 será una actualización profunda de Siri.

    El rediseño, cuyo nombre interno sería “Campo”, busca transformar al asistente en una herramienta más cercana a los chatbots conversacionales modernos como ChatGPT o Claude.

    Para lograrlo, Apple habría alcanzado un acuerdo para integrar tecnología basada en Gemini de Google como parte de sus nuevos Apple Foundation Models.

    El proyecto representaría una inversión estimada de alrededor de 1.000 millones de dólares anuales, reflejando la presión que enfrentan las grandes tecnológicas para avanzar en inteligencia artificial generativa.


    El futuro del diseño Liquid Glass

    Otro punto importante en iOS 27 será la evolución del diseño Liquid Glass, introducido en 2025 tanto en iOS como en los demás sistemas operativos de Apple.

    Este estilo visual, utilizado también en plataformas como el visor de realidad mixta Apple Vision Pro, ha sido técnicamente ambicioso pero también criticado por parte de los usuarios, especialmente por cuestiones de mala legibilidad.

    El futuro del diseño en los sistemas operativos de Apple quedó en dudas tras la salida de Alan Dye, quien lideró su desarrollo y posteriormente se fue a trabajar a Meta Platforms.

    Sin embargo, Apple no planea abandonar el concepto. En su lugar, el nuevo jefe de diseño de software Steve Lemay, un veterano de la compañía desde 1999, supervisará una etapa de refinamiento gradual, similar a la evolución del diseño plano introducido con iOS 7.


    Más control sobre Liquid Glass para los usuarios

    Uno de los cambios más esperados podría ser una herramienta de personalización avanzada del efecto visual de Liquid Glass.

    Durante el ciclo de iOS 26, Apple ya introdujo ajustes limitados como:

    • Una opción de color (“Tinted”) para modificar la opacidad
    • Un interruptor para desactivar ciertos brillos
    • Un control deslizante para el efecto de vidrio en el reloj de la pantalla de bloqueo

    Ahora la compañía estaría trabajando en un control deslizante global que permitiría ajustar la intensidad del efecto en todo el sistema, incluyendo:

    • Carpetas de aplicaciones
    • Barras de navegación
    • Pantalla de inicio

    Si Apple logra superar los retos técnicos para implementarlo, los usuarios podrían personalizar el aspecto del sistema con mucho más detalle.


    Calendario de lanzamiento

    Como es habitual, Apple presentará oficialmente iOS 27 durante la WWDC de junio, donde se lanzará la primera beta para desarrolladores.

    La versión final del sistema probablemente llegará al público en septiembre, coincidiendo con la nueva generación de iPhones.

    Con un enfoque en estabilidad, mejoras de inteligencia artificial y mayor personalización visual, iOS 27 podría convertirse en una de las actualizaciones más refinadas y estratégicas de Apple en los últimos años.

  • Digg necesita un “reinicio total” tras ser invadido por bots y agentes de IA

    Digg fue víctima de los bots
    Digg fue víctima de los bots

    El histórico sitio comunitario Digg ha decidido desconectarse temporalmente, apenas dos meses después de relanzar su esperada beta pública, luego de verse desbordado por una avalancha de bots y agentes de inteligencia artificial que comprometieron la integridad de la plataforma.

    En una carta publicada en la página principal del sitio, el CEO Justin Mezzell anunció que el servicio sufrirá un “hard reset», un reinicio total, mientras el equipo reconstruye el sistema desde cero.


    Un regreso muy esperado… y rápidamente sabotado

    Fundado en 2004, Digg fue uno de los pioneros del internet social, permitiendo a los usuarios votar y compartir enlaces populares mucho antes de la explosión de redes sociales modernas.

    Tras perder relevancia con el paso de los años, la plataforma fue vendida en 2012. Sin embargo, en 2025 el fundador original Kevin Rose se unió al cofundador de Reddit, Alexis Ohanian, para recomprar el sitio y devolverle su espíritu original.

    El objetivo del relanzamiento era revivir la cultura de descubrimiento y de comunidad que existió durante los primeros años de Internet.

    Después de varios meses de beta cerrada, la nueva versión del sitio se lanzó públicamente en enero.


    Una invasión masiva de bots

    El equipo de Digg sabía que los bots serían un desafío, por lo que planearon usar diversas estrategias para detectarlos:

    • Herramientas de inteligencia artificial
    • Múltiples sistemas de verificación de identidad
    • Posibles requisitos de verificación adicionales para ciertas comunidades

    Pero las defensas no fueron suficientes.

    Pocas horas después del lanzamiento, spammers especializados en SEO detectaron que Digg aún conservaba autoridad en los resultados de búsqueda de Google, lo que lo convertía en un objetivo perfecto para manipular enlaces.

    La plataforma fue inundada por:

    • Cuentas automatizadas
    • Agentes de IA generando contenido
    • Redes de spam masivas

    El equipo llegó a bloquear decenas de miles de cuentas, usando herramientas internas y servicios externos de seguridad. Aun así, el flujo de bots resultó demasiado rápido y sofisticado.


    “La confianza es el producto”

    Según Mezzell, el problema va mucho más allá de Digg.

    “Esto no es solo un problema de Digg. Es un problema de internet”, explicó el CEO.

    El mayor riesgo era la pérdida de confianza en la comunidad:

    • Votos que podrían ser falsos
    • Comentarios generados por bots
    • Interacción manipulada artificialmente

    Cuando ya no se puede confiar en la autenticidad de la actividad de los usuarios, el modelo mismo de una comunidad online se rompe.


    Reducción de personal y reconstrucción desde cero

    Como consecuencia del cierre temporal, Digg reducirá significativamente su plantilla, aunque un pequeño equipo continuará trabajando en el rediseño completo de la plataforma.

    Mezzell reconoció que la estrategia inicial, ofrecer una alternativa a las redes sociales actuales, no era lo suficientemente innovadora.

    El próximo Digg tendrá que ser radicalmente diferente para sobrevivir en un internet lleno de automatización.


    El regreso del fundador

    Una señal positiva para los seguidores históricos es el regreso activo de Kevin Rose.

    A partir de abril, el fundador volverá a trabajar a tiempo completo en Digg, dejando su rol principal en True Venturespara concentrarse en el relanzamiento del proyecto.

    Mientras tanto, el podcast oficial de la comunidad, Diggnation, continuará publicándose mensualmente para mantener informados a los usuarios sobre los avances.


    Un problema que afecta a todo internet

    La crisis de Digg refleja un desafío cada vez mayor para las plataformas sociales: cómo construir comunidades auténticas en una web cada vez más poblada por inteligencia artificial.

    Lo que antes era principalmente un problema de spam humano se ha transformado en algo mucho más complejo: ejércitos de bots capaces de generar contenido convincente, interactuar y manipular sistemas de reputación a gran escala.

    Con el regreso de su fundador y un rediseño completo en marcha, Digg intentará demostrar que todavía es posible crear espacios digitales basados en la confianza humana en la era de la inteligencia artificial.

  • 50º aniversario de Apple: Concierto sorpresa de Alicia Keys en Nueva York

    Concierto sorpresa de Alicia Keys en la tienda de Apple de Grand Central Station en Nueva York
    Concierto sorpresa de Alicia Keys en la tienda de Apple de Grand Central Station en Nueva York

    Apple ha comenzado oficialmente las celebraciones de su 50º aniversario con un evento sorpresa en la estación Grand Central de Nueva York, donde la cantante Alicia Keys ofreció un concierto exclusivo en la icónica tienda de Apple ubicada en esa terminal ferroviaria.

    La compañía, fundada el 1 de abril de 1976, planea celebrar medio siglo de innovación con una serie de eventos globales durante todo el mes, comenzando con este espectáculo sorpresa el pasado viernes.


    Un concierto secreto en Grand Central

    Los rumores comenzaron a circular días antes cuando la tienda de Apple en Grand Central fue cerrada inesperadamente al público.

    Durante la noche previa al evento:

    • Equipos técnicos instalaron un escenario, iluminación y sistemas de audio
    • Se colocó el piano rosa característico de Alicia Keys
    • Apple invitó discretamente a medios, creadores de contenido y YouTubers

    Sin embargo, varios pasajeros que transitaban por la terminal también pudieron disfrutar de la presentación improvisada, convirtiendo el momento en una experiencia inesperada para el público.


    Presencia de los líderes de Apple

    El concierto también reunió a varios de los principales ejecutivos de la compañía.

    Entre los asistentes estuvieron:

    • Tim Cook
    • John Ternus
    • Greg Joswiak
    • Deirdre O’Brien

    La presencia de la cúpula directiva subrayó la importancia simbólica del evento como inicio oficial de las celebraciones del aniversario.


    Una relación de años con Apple

    La elección de Alicia Keys como artista principal no fue casual. La cantante, ganadora de 17 premios Grammy, mantiene una relación de larga data con Apple.

    Entre sus colaboraciones previas destacan:

    • Presentación en el Apple Music Festival en 2016
    • Actuación en el evento NYC Holiday Masquerade Ball de Apple en 2022
    • Participación en la experiencia inmersiva Alicia Keys: Rehearsal Room para Apple Vision Pro

    Celebraciones globales en camino

    El concierto en Nueva York es solo el primero de varios eventos que Apple planea organizar en diferentes ciudades del mundo durante las próximas semanas.

    Entre los posibles destinos se mencionan:

    • San Francisco
    • Los Angeles
    • London
    • Paris
    • Tokyo

    ¡Ojalá Apple también contemple eventos en otras ciudades importantes como la Ciudad de México y Madrid!.

    Según la compañía, el objetivo de estos encuentros es celebrar la creatividad de los usuarios y el impacto cultural de sus productos.


    “Think Different” a los 50 años

    Las celebraciones también recuperan el espíritu de la icónica campaña publicitaria de Apple, Think Different.

    En una carta abierta titulada “50 Years of Thinking Different”, Tim Cook destacó que el progreso del mundo depende de las personas que se atreven a pensar de forma distinta.

    Durante el evento en Nueva York, el CEO reiteró ese mensaje:

    “Pensar diferente siempre ha estado en el corazón de Apple. Es lo que nos impulsa a crear productos que permiten a las personas expresarse, conectarse y crear algo maravilloso.”

    Aunque el aniversario es una ocasión para mirar al pasado, Cook dejó claro que la empresa sigue enfocada en el futuro.

    “En Apple estamos más concentrados en construir el mañana que en recordar el ayer”, escribió. “Pero no podíamos dejar pasar este momento sin agradecer a los millones de personas que han hecho posible estos 50 años.”

  • Tragedia en el Metro de la CDMX: Explosión de un celular provocó caída mortal

    Explosión de un celular provocó caída mortal
    Explosión de un celular provocó caída mortal

    Una tragedia sacudió al Metro de la Ciudad de México la tarde del 11 de marzo, cuando un hombre de aproximadamente 40 años murió tras caer desde unos 30 metros de altura dentro de la estación Estación Camarones, en la alcaldía Azcapotzalco.

    Lo que inicialmente parecía un accidente ha tomado un giro inesperado. Las autoridades investigan si la explosión de su teléfono celular pudo haber provocado la caída.


    Qué ocurrió en la estación

    El incidente ocurrió en el lado oriente de la estación, en dirección a El Rosario.

    Según reportes preliminares y testimonios recabados en el lugar:

    • El hombre se encontraba en la parte superior de las escaleras
    • La batería de su teléfono presuntamente explotó
    • La detonación lo habría sorprendido o lesionado
    • Perdió el equilibrio y cayó al vacío hasta el andén

    Equipos de emergencia y elementos de la Secretaría de Seguridad Ciudadana de la Ciudad de México acudieron al lugar junto con paramédicos.

    En la zona fue encontrado un teléfono parcialmente quemado, lo que reforzó la hipótesis inicial. Sin embargo, cuando los servicios médicos llegaron, la víctima ya no presentaba signos vitales debido a la gravedad del impacto.

    La investigación está ahora en manos de la Fiscalía General de Justicia de la Ciudad de México, que abrió una carpeta para determinar la causa exacta del incidente.


    ¿Por qué puede explotar un celular?

    Aunque es poco frecuente, los expertos advierten que los teléfonos pueden incendiarse o explotar debido a fallas en las baterías de ion de litio.

    Estas baterías concentran gran cantidad de energía en un espacio muy pequeño, lo que puede provocar fallas térmicas si ocurre algún problema interno.

    Entre las causas más comunes se encuentran:

    • Sobrecalentamiento, por ejemplo al dejar el dispositivo al sol o dentro de un automóvil
    • Uso intensivo mientras se carga
    • Cargadores o cables de baja calidad
    • Daños físicos en la batería

    Cuando ocurre una falla térmica, la temperatura puede elevarse rápidamente y provocar:

    • Incendios
    • Explosiones de la carcasa
    • Proyección de fragmentos de vidrio, metal o plástico

    Estas situaciones pueden causar quemaduras graves o lesiones oculares, además de provocar reacciones de sobresalto que podrían generar accidentes.


    Investigación en curso

    Las autoridades continúan analizando evidencias para confirmar si la explosión del teléfono fue realmente el detonante del accidente en la estación Camarones o si se trató de otro tipo de incidente.

    Mientras tanto, el suceso ha reavivado el debate sobre la seguridad de las baterías de dispositivos móviles, que aunque raros, pueden tener consecuencias graves en determinadas circunstancias.

  • Meta retrasa su modelo de IA “Avocado” tras problemas de rendimiento

     pesar de las inversiones, Meta sigue teniendo problemas para desarrollar un modelo líder de IA.
    A pesar de las inversiones, Meta sigue teniendo problemas para desarrollar un modelo líder de IA.

    Meta Platforms ha pospuesto el lanzamiento de su esperado modelo de inteligencia artificial de nueva generación, conocido internamente como Avocado (aguacate), después de detectar problemas de rendimiento durante las pruebas internas.

    Inicialmente previsto para mediados de marzo, según un artículo del New York Times, el modelo ahora apunta a una ventana de lanzamiento entre mayo y junio, lo que refleja los desafíos que enfrenta la compañía en la carrera por la inteligencia artificial avanzada.


    Un modelo que no alcanza a los líderes del sector

    Durante las pruebas internas, Avocado fue evaluado en tareas clave como:

    • Razonamiento
    • Programación
    • Redacción

    Los resultados mostraron avances respecto al modelo anterior de Meta, Llama 4, e incluso superó a Gemini 2.5 de Google.

    Sin embargo, el modelo no logró igualar el rendimiento de Gemini 3.0, lo que llevó a Meta a retrasar su lanzamiento mientras intenta mejorar sus capacidades.

    La brecha de rendimiento ha sido lo suficientemente preocupante como para que algunos ejecutivos consideren licenciar temporalmente la tecnología Gemini de Google para impulsar ciertos productos de Meta, una posibilidad que subraya la presión competitiva en el sector.


    Inversiones masivas para alcanzar la “superinteligencia”

    El retraso llega pese a los enormes recursos que Meta está destinando a la inteligencia artificial.

    El CEO Mark Zuckerberg ha señalado que el objetivo de la empresa es alcanzar la “superinteligencia”, un nivel de IA que supere la capacidad humana.

    Para ello, Meta ha proyectado:

    • Entre 115.000 y 135.000 millones de dólares en gasto de capital este año
    • Aproximadamente 600.000 millones de dólares en infraestructura, incluidos centros de datos y chips propios

    Estas cifras casi duplican la inversión de la compañía en el año anterior.


    Reorganización interna y nuevos líderes

    Tras el desempeño decepcionante de Llama 4, Meta también reorganizó su liderazgo en inteligencia artificial.

    En junio, la compañía invirtió 14.300 millones de dólares en la startup Scale AI y nombró a su fundador y CEO, Alexandr Wang, como nuevo Chief AI Officer.

    Wang creó un equipo de élite de unos 100 investigadores llamado TBD Lab, encargado de desarrollar una nueva generación de modelos con nombres inspirados en frutas.

    Entre ellos:

    • Avocado, un modelo centrado en texto
    • Mango, enfocado en generación de imágenes y video
    • Watermelon, un futuro modelo fundacional aún más grande

    El equipo también lanzó recientemente Vibes, una aplicación de video generativo diseñada para competir con herramientas como Sora de OpenAI.


    Tensiones internas y cambios estratégicos

    Además de los desafíos técnicos, Meta enfrenta debates internos sobre el futuro de su estrategia de IA.

    Históricamente, la empresa ha sido una defensora del modelo abierto en inteligencia artificial. Sin embargo, ahora algunos de sus líderes, incluidos Zuckerberg y Wang, han considerado mantener el modelo de Avocado cerrado.

    También han surgido desacuerdos sobre cómo integrar estos nuevos modelos en el negocio publicitario de Meta entre Wang, el director de producto Chris Cox y el director tecnológico Andrew Bosworth.

    Para mejorar la coordinación, la empresa ha creado un nuevo equipo de ingeniería de IA bajo la dirección de Bosworth que trabajará directamente con la división de Wang.


    Meta mantiene el optimismo

    A pesar del retraso, Meta insiste en que el desarrollo sigue avanzando.

    Según el portavoz de la compañía Dave Arnold, el próximo modelo no solo será competitivo, sino que demostrará la rapidez con la que la empresa está avanzando en el desarrollo de nuevas capacidades de IA.

    Mientras el equipo de TBD Lab continúa refinando Avocado para un lanzamiento a finales de primavera, Meta ya está trabajando en la próxima generación de modelos.