gadgetsgenial.es

Autor: Huibert Aalbers

  • Apple lanza una nueva versión beta de Xcode 26.3

    Xcode 26.3
    Xcode 26.3

    Últimos cambios antes del lanzamiento oficial

    Apple acaba de lanzar la segunda versión Release Candidate de Xcode 26.3. He estado usando la primera versión desde que fue anunciada por Apple y es una mejora importantísima con respecto a la versión 26.2.

    Antes de Xcode 26.3, utilizar agentes de IA dentro de Xcode era una experiencia frustrante. Personalmente había dejado de usar Xcode y había adoptado Antigravity de Google. Esta decisión se debía a muchos motivos, pero uno de los más importantes es que no era posible ni siquiera elegir el modelo de Anthropic con el que quería trabajar.

    A principios de este mes, Apple anunció la nueva versión de Xcode 26.3, la cual se integraría de forma nativa con herramientas de programación basadas en agentes de IA como Claude Agent de Anthropic y Codex de OpenAI. El cambio ha sido dramático. He abandonado Antigravity y ya no salgo de Xcode para nada.

    Esto no significa que no hubiera pequeños problemas propios de una versión beta. Por ejemplo, a veces el agente de Claude decidía realizar tareas utilizando comandos de Terminal, en lugar de usar las integraciones con Xcode, pero son temas menores.

    Xcode 26.3 se retrasa

    El pasado 11 de febrero, Apple lanzó Xcode 26.3 Release Candidate 1 aproximadamente al mismo tiempo que las versiones RC de macOS 26.3. Por lo tanto, los desarrolladores esperábamos que cuando esos sistemas operativos fueron lanzados oficialmente el 11 de febrero, Xcode 26.3 también estaría disponible. Sin embargo, no fue el caso. Probablemente todavía faltaban por afinar algunos detalles.

    Apple no ha informado acerca de las diferencias existentes entre Xcode 26.3 RC 1 y RC 2, pero probablemente han estado trabajando en resolver esos problemitas que habíamos detectado los desarrolladores..

    Sea como fuere, la versión 26.3 de Xcode ha recibido grandes elogios de la comunidad de desarrolladores que la han estado utilizando desde que se liberó la primera versión. Con el lanzamiento hoy de la versión RC 2, es razonable esperar que si no surjen más imprevistos, sea posible descargar la versión final en algún momento de la próxima semana.

  • OpenAI lanzará un altavoz inteligente con IA en 2027

    El logotipo de OpenAI
    El logotipo de OpenAI

    OpenAI quiere competir con Alexa, Google y Siri

    OpenAI, la empresa que revolucionó el mundo de la IA generativa con el lanzamiento de ChatGPT, pretende diversificarse aventurándose en el mercado del hardware, con planes de lanzar una serie de dispositivos impulsados por IA. El primer producto que esperan lanzar es un altavoz inteligente, que podría llegar al mercado en 2027. Este ambicioso proyecto está respaldado por un equipo dedicado de más de 200 empleados y marca un paso significativo para OpenAI más allá de su enfoque tradicional, centrado en el software.

    Se prevé que el altavoz inteligente, con un precio entre $200 y $300, cuente con una variedad de funciones diseñadas para sumergir a los usuarios en una experiencia impulsada por la IA. Equipado con una cámara, el dispositivo tiene como objetivo comprender su entorno identificando objetos en su vecindad e incluso interpretando conversaciones cercanas. Esta recopilación de información visual y auditiva permite un nivel más profundo de interacción y respuestas personalizadas. Además, se rumorea que la cámara incorpora un sistema de reconocimiento facial similar al Face ID de Apple, lo que podría permitir a los usuarios autenticar compras directamente a través del altavoz.

    OpenAI trabaja también en otros dispositivos

    Más allá del altavoz inteligente, OpenAI también está explorando otras posibilidades de hardware, incluidas gafas inteligentes y una lámpara inteligente. Si bien se han desarrollado prototipos de la lámpara inteligente, su futuro sigue siendo incierto. Las gafas inteligentes, destinadas a competir con las ofertas de Meta, están proyectadas para un lanzamiento posterior, potencialmente en 2028.

    Este impulso hacia el hardware está significativamente influenciado por los problemas que enfrenta OpenAI para generar los flujos de efectivo que requiere su operación. En tiempos recientes ha enfrentado una competencia feroz tanto por el lado de Google como por parte de Anthropic que le han quitado importantes partes de mercado, pero que además ponen en riesgo esa percepción de liderazgo en temas de IA que la empresa tenía con sus clientes.

    El mercado está muy competido

    Sin embargo, ganar dinero en el mercado de los altavoces inteligentes es complicado. Por un lado está Amazon que ha perdido billones de dólares promoviendo los dispositivos Alexa a precios muy bajos y por otro lado está Apple que dispone de un rico ecosistema que hace que sus clientes prefieran los productos de la compañía. Entre los dos, está Google, un gigante con gran experiencia en IA y que en tiempos recientes parece haber rebasado a OpenAI en cuanto a calidad de sus modelos, diferencia que se podría acrecentar con el próximo lanzamiento de Gemini 3.1.

    Aún así, OpenAI parece creer que lo puede lograr. Por eso adquirieron la firma de diseño de Jony Ive, io Products. Ive, el ex Director de Diseño de Apple, es ampliamente reconocido por dar forma a la estética de diseño icónica de Apple. La apuesta de OpenAI es clara, tienen la intención de lanzar dispositivos visualmente atractivos y fáciles de usar.

    Existen aún muchos interrogantes

    Aunque la estrategia es clara, la colaboración no ha estado exenta de problemas. Se ha sabido por ejemplo que la integración de la filosofía de diseño de Ive con el equipo de hardware existente de OpenAI ha provocado cierta fricción.

    También existe preocupación con respecto a la potencia informática necesaria para operar dispositivos de IA a escala. Finalmente, hay dudas acerca de como se protegerá la privacidad con unos dispositivos que están constantemente escuchando y observando.

    A pesar de estos obstáculos, la incursión de OpenAI en el ámbito del hardware promete ser paso importante en la rápida evolución de la IA y su integración en nuestra vida diaria.

    El éxito de estos dispositivos probablemente dependerá de cómo OpenAI logrará atender las crecientes preocupaciones acerca de la privacidad de los consumidores y sobre todo de su capacidad para ofrecer un valor convincente de forma sostenida a sus clientes ya que es probable que además del precio del altavoz haya que pagar una suscripción mensual.

  • macOS 26.3 revela los anuncios que hará Apple el 4 de marzo

    El sistema operativo macOS 26.3 fue apenas liberado el pasado 11 de febrero y ya está revelando algunos secretos

    El próximo 4 de marzo Apple ha convocado a periodistas e influencers a un evento que describe como una “experiencia especial”. La expectativa es que ese día, los asistentes puedan ver en primicia los nuevos productos de Apple anunciados esa misma semana. La única duda que queda es qué productos serán porque sabemos que Apple está preparando varios lanzamientos importantes para esta primera mitad del año.

    Lo que pasa es que para Apple es difícil mantener en secreto qué productos anunciará porque esos productos deben estar soportados por el sistema operativo vigente (a menos de que anuncien un producto con meses de anticipación). Por eso, cada vez que sale un nuevo sistema operativo, son muchos que lo examinan con lupa para saber si aparecen referencia a productos o componentes nuevos que puedan dar pistas sobre un lanzamiento inminente.

    La actualización de macOS 26.3 contiene extensiones de kernel (kexts) que mencionan tres identificadores de producto distintos: J700, J427 y J527. Estos nombres en clave, descubiertos por Macworld, corresponden a dispositivos que han sido objeto de mucha especulación y rumores.

    Se cree que el identificador J700 es el MacBook de bajo costo tan esperado. Esta nueva computadora portátil de nivel de entrada está a punto de cambiar las reglas del juego, ya que sería el primero en usar un procesador de iPhone (de la serie A), específicamente el A18 Pro, en lugar de los chips de la serie M que se encuentran en otros MacBooks y que son más caros.

    Las pruebas de rendimiento indican que el A18 Pro funciona ligeramente mejor que el chip M1, por lo que se espera que sea más que suficiente para usuarios que usan su computadora para tareas poco intensivas en cómputo. Esto posicionanría al nuevo MacBook por debajo del MacBook Air en términos de precio y rendimiento, llevándolo a un público más amplio. Los rumores sugieren una pantalla ligeramente inferior a 13 pulgadas, encerrada en un chasis de aluminio y potencialmente ofrecida en una gama de colores vibrantes y “divertidos” como amarillo, verde, azul y rosa, junto con opciones más tradicionales de plata y gris oscuro. En cuanto al precio, no hay ninguna certidumbre. Los rumores hablan de rangos que oscilan entre los US$599 y los US$799.

    En cuanto a los identificadores J427 y J527, se cree que representan nuevas iteraciones del Apple Studio Display. Actualmente, el Studio Display cuenta con una pantalla de 27 pulgadas y una resolución de 5K. Aunque se trata de un buen producto, ya tiene casi cuatro años y está claro que necesita una actualización para poder seguir compitiendo en el mercado. El hecho de que haya dos claves de producto distintas parece indicar que se anunciarán dos modelos diferentes. Una posibilidad es que Apple ofrezca el monitor en dos tamaños distintos (una panta 6K de 32’’ podría ser muy atractiva). Otra teoría es que pudieran ser dos pantallas de mismo tamaño y resolución, pero una versión básica y otra “premium”.

    Ya habíamos reportado anteriormente que se espera que al menos uno de los nuevos modelos de Studio Display cuente con mejoras significativas, incluida la tecnología ProMotion con una frecuencia de actualización de 90 o 120 Hz y soporte para HDR. Para ello un chip A19, o incluso un A19 Pro, reemplazaría el actual procesador A13 Bionic para manejar funciones como Spatial Audio y el procesamiento de las imágenes de la cámara web en tiempo real. Además, estas actualizaciones aportarían mayor brillo, contraste y rendimiento general a la pantalla.

    La aparición de estos tres nuevos identificadores en macOS 26.3 parece indicar que estos tres productos serán anunciados a principios de marzo, pero nunca se sabe, Apple podría preparar alguna sorpresa adicional.

  • Reestructuración en Ubisoft Toronto. ¿Remake de Splinter Cell en riesgo?

    Ubisoft, editor de Splinter Cell

    ¿Le pasará lo mismo al remake de Splinter Cell que al de Prince of Persia: Arenas del tiempo?

    Estamos viviendo tiempos de incertidumbre en el mundo de los videojuegos.

    Las malas noticias más recientes provienen de Ubisoft Toronto, desarrollador de Splinter Cell, que está pasando por una reestructuración, lo que obviamente se traduce en muchos interrogantes sobre lo que puede llegar a pasar con algunos de sus títulos más esperados.

    Ubisoft ha confirmado una ronda de despidos que afecta a aproximadamente 40 empleados en ese estudio. Esta decisión, que forma parte de una iniciativa más amplia de la compañía para reducir costos y “reenfocar la energía creativa”, ha generado comprensiblemente inquietud entre los fans que esperan ansiosamente el remake de Splinter Cell, que fue anunciado oficialmente en 2021.

    La noticia evoca recuerdos del desafortunado remake de Prince of Persia: The Sands of Time, que finalmente fue cancelado, dejando a muchos preguntándose si Splinter Cell se dirige por el mismo camino.

    A pesar de los despidos, Ubisoft insiste en que el remake de Splinter Cell sigue en desarrollo. La compañía ha enfatizado que la decisión de reducir personal en Toronto no refleja una falta de talento o dedicación de los afectados, y que la compañía proporcionará paquetes de indemnización integrales y asistencia para recolocarlos.

    La historia del estudio

    Ubisoft Toronto desempeña un papel clave en el co-desarrollo de otros títulos importantes, incluido Rainbow Six Siege, en colaboración con Ubisoft Montreal.

    El estudio, fundado en 2010, aún mantiene una considerable fuerza laboral de alrededor de 500 empleados, lo que muestra su importancia para la empresa francesa. Si bien el futuro del remake de Splinter Cell sigue siendo incierto, el compromiso que Ubisoft manifiesta en público con el proyecto, ofrece cierto nivel de esperanza para los fans ansiosos por ver a Sam Fisher regresar a las sombras.

    Los próximos meses serán cruciales para determinar si este título tan esperado finalmente verá la luz del día.

  • Google Play usó IA para ayudar a bloquear 1.75 millones de apps maliciosas en 2025

    Google Play usó IA para bloquear reseñas falsas y detectar aplicaciones maliciosas

    También evitó que se colaran falsas reseñas y canceló más de 80,000 cuentas de desarrolladores.

    Google ha anunciado que, con la ayuda de la IA, bloqueó 1,75 millones de aplicaciones que infringían sus políticas en 2025, una cifra significativamente inferior a los 2,36 millones de 2024. La disminución de este año, según afirma, se debe a que sus «protecciones multicapa impulsadas por la IA» están disuadiendo a hackers de siquiera intentar publicar aplicaciones maliciosas.

    La IA revisa todas las aplicaciones

    Google dijo que ahora ya ejecuta más de 10.000 controles de seguridad en cada aplicación y que las sigue verificando después de su publicación en Google Play. Los modelos de IA generativa más modernos de Google ayudan a los revisores humanos a descubrir patrones maliciosos más rápidamente. La compañía también bloqueó 160 millones de valoraciones ficticias, evitando una caída promedio de 0,5 estrellas en la calificación de las aplicaciones que fueron objeto de bombardeos automatizados de reseñas. Finalmente, Google impidió que 255.000 aplicaciones obtuvieran acceso excesivo a datos confidenciales de los usuarios en 2025, frente a los 1,3 millones del año anterior.

    Mientras tanto, Google Play Protect, el sistema de defensa de Android creado por la compañía, detectó más de 27 millones de nuevas aplicaciones maliciosas, ya sea advirtiendo a los usuarios o impidiéndoles que se ejecuten. La compañía agregó que la protección contra el fraude mejorada de Play Protect ahora cubre 2.800 millones de dispositivos Android en 185 mercados y que bloqueó 266 millones de intentos de instalación usando “side-loading”, un sistema potencialmente riesgoso, aunque también puede ser utilizado de forma legítima.

    «Iniciativas como la verificación de desarrolladores, los controles pre-revisión obligatorios y los requisitos de pruebas han elevado el listón para el ecosistema de Google Play y han reducido significativamente las opciones para los desarrolladores malintencionados, dijo la compañía en su blog de seguridad. «Este año, continuaremos invirtiendo en nuevas defensas apoyadas por la IA para mantenernos a la vanguardia de las amenazas emergentes y equipar a los desarrolladores de Android con las herramientas que necesitan para crear aplicaciones de forma segura».

    Una cuestión de escala

    Cuando uno observa los números tan altos con los que debe lidiar Google Play, se entiende que se necesite utilizar tecnología como la IA para poder responder en tiempos aceptables. Sin embargo, en este tipo de comunicados triunfalistas, donde todo es positivo, no se suele hablar de la pesadilla que puede suponer para un desarrollador legítimo ver su aplicación rechazada por la IA y no saber cómo apelar la decisión.

    El costo de la seguridad para Google

    Google ha justificado constantemente sus tarifas relativamente altas en las compras y suscripciones de aplicaciones destacando sus inversiones en la seguridad de las aplicaciones. Claro que al automatizar todo el proceso de revisión mediante el uso de la IA, esos costos deberían bajar. Veremos si eso se traduce en una reducción de las comisiones que deben pagar los desarrolladores.

  • Google lanza Gemini 3.1 Pro y alcanza evaluaciones récord en materia de razonamiento

    Gemini 3.1 Pro
    Gemini 3.1 Pro

    Gemini 3.1 Pro: Una Nueva Era de Razonamiento y Resolución de Problemas con IA

    Google ha presentado Gemini 3.1 Pro, una actualización significativa de su modelo de IA insignia, diseñado para abordar las tareas más complejas con capacidades de razonamiento sin precedentes. Esta inteligencia mejorada ahora se está implementando en las plataformas para consumidores y desarrolladores de Google, llevando la IA avanzada a las aplicaciones cotidianas.

    Las evaluaciones de Gemini 3.1 son excelentes

    Gemini 3.1 Pro representa un salto sustancial en cuanto a capacidad de razonamiento, demostrado por su rendimiento en pruebas especialmente diseñadas para evaluar las capacidades de los LLMs.

    En particular, en ARC-AGI-2, una prueba que evalúa la capacidad de un modelo para resolver patrones lógicos completamente nuevos, Gemini 3.1 Pro logró una puntuación del 77,1%. Esto duplica con creces el rendimiento de razonamiento de su predecesor, Gemini 3 Pro, y supera a competidores como GPT-5.2 y Claude Opus 4.6. El modelo también lidera en la mayoría de los puntos de referencia rastreados en comparación con estos rivales, incluido un resultado del 94,3% en GPQA Diamond, una prueba de razonamiento científico a nivel de posgrado.

    Los resultados obtenidos en estas pruebas son importantes porque reflejan la fiabilidad del modelo en el mundo real. Las tareas de estilo ARC examinan la generalización y la inducción de patrones, lo que sugiere habilidades mejoradas en la síntesis de datos, la planificación y las instrucciones de varios pasos. GPQA Diamond mide la comprensión a nivel de posgrado en dominios científicos, lo que indica un razonamiento mucho más fiable y un comportamiento menos frágil cuando recibe prompts con los que no está familiarizado.

    En esencia, los resultados más sólidos en estas pruebas se correlacionan de forma directa con un rendimiento más fiable en tareas complejas.

    Evaluaciones de distintos modelos de IA generativa

    Mejoras en el razonamiento avanzado

    Gemini 3.1 Pro está diseñado para escenarios en los que una respuesta simple no es suficiente. En ese caso usa razonamiento avanzado y lo aplica para resolver incluso los retoos más difíciles. Esta inteligencia mejorada puede ayudar en situaciones prácticas, ya sea que esté buscando una explicación visual clara de un tema complejo, una forma de sintetizar datos en una sola vista o dar vida a un proyecto creativo.

    Por ejemplo, el modelo es capaz de generar SVG animados listos para la web directamente desde una instrucción de texto, construir paneles de control aeroespaciales en vivo configurando transmisiones de telemetría públicas e incluso codificar experiencias interactivas 3D complejas. Esto va a revolucionar sin duda los libros de texto en los próximos años.

    Una de las innovaciones clave en Gemini 3.1 Pro es su uso del pensamiento dinámico. El modelo es capaz de ajustar la cantidad de razonamiento interno que aplica en función de la complejidadl problema. Las preguntas sencillas obtienen respuestas rápidas, mientras que los problemas complejos que deben resolverse paso a paso activan cadenas de procesamiento más profundas. Los desarrolladores pueden incluso controlar este comportamiento a través de una configuración en la API, estableciendo la profundidad máxima del razonamiento interno.

    Todavía hay oportunidades de mejora

    Si bien Gemini 3.1 Pro sobresale en muchas áreas, Google reconoce que se queda atrás en ciertas evaluaciones de herramientas de codificación agentic, como SWE-Bench Verified, que mide la capacidad de corregir problemas de software del mundo real. Para los equipos centrados en la corrección automatizada de errores o la refactorización de aplicaciones completas, la combinación de agentes de codificación especializados con IDEs altamente integrados aún pueden superar a los modelos de chat de generalistas, por lo menos hasta que mejoren la orquestación y la fiabilidad de las herramientas.

    Con Gemini 3.1 Pro, Google ha reducido, si no es que invertido, varias de las tablas de clasificación más escrutadas a su favor, particularmente en razonamiento abstracto y control de calidad científico. Si sus tareas se centran en el análisis complejo, la síntesis de múltiples fuentes y las explicaciones técnicas difíciles, las puntuaciones de Gemini 3.1 Pro deberían convencerlo o convencerla de usarlo en primera opción. Sin embargo, las cosas están cambiando tan rápidamente que esta ventaja puede ser solo momentánea.

    Gemini 3.1 Pro está disponible ahora

    Gemini 3.1 Pro está disponible en la aplicación Gemini de Google y en la web. También es accesible en NotebookLM para suscriptores de planes AI Pro o AI Ultra. Los desarrolladores y las empresas pueden acceder a 3.1 Pro ahora en vista previa usando la API de Gemini a través de AI Studio, Antigravity, Vertex AI, Gemini Enterprise, Gemini CLI y Android Studio.

  • Función de emergencia SOS vía satélite del iPhone ayudó a rescatar a esquiadores en una avalancha en Lake Tahoe

    Un iPhone usando la funcionalidad de Emergenicia SOS vía satélite
    Emergencia SOS vía satélite

    Cuando ocurre una tragedia, Emergencia SOS puede salvar vidas

    En un trágico accidente ocurrido cerca del Lago Tahoe en California, seis esquiadores lograron sobrevivir gracias a sus iPhones (aunque hay nueve víctimas mortales). El 18 de febrero, un grupo de esquiadores fue alcanzado por una enorme avalancha, en una zona rural sin servicio de telefonía celular. Afortunadamente, los supervivientes lograron contactar con el servicio de rescate gracias a la función “Emergencia SOS vía satélite de Apple”.

    Esta funcionalidad, introducida como parte del lanzamiento del iPhone 14 y que también está disponible en el Apple Watch Ultra 3, permite a los usuarios enviar mensajes de texto a los servicios de emergencia cuando las redes celulares y Wi-Fi tradicionales no están disponibles. Esto permitió a los esquiadores mantenerse en contacto con los servicios de emergencia durante las aproximadamente cuatro horas que tardaron en planear y ejecutar los esfuerzos de rescate.

    La función “Emergencia SOS vía satélite de Apple” no es un reemplazo de los métodos de comunicación tradicionales porque permite una comunicación mucho más limitada, pero puede ser de gran ayuda en situaciones como esta, donde noy existen otras alternativas. Las regiones montañosas remotas, a menudo sufren de una cobertura celular poco confiable, lo que convierte los mensajes de texto satelitales en una herramienta vital en situaciones de emergencia.

    Este incidente es solo el último de una lista creciente de casos en los que la función de “Emergencia SOS” vía satélite ha salvado vidas. Desde el rescate de escaladores heridos en Colorado hasta la localización de excursionistas varados y familias atrapadas en incendios forestales, la tecnología está demostrando ser un activo invaluable para quienes enfrentan emergencias en lugares remotos.

    ¿Quién le subcontrata el servicio a Apple?

    Los teléfonos de Apple se conectan con la red satelital de GlobalStar, la cual cuenta con unos 24 satélites que orbitan la tierra a baja altura. Este bajo número de satélites limita la cobertura y la capacidad del sistema. Por eso ha habido rumores de conversaciones entre Apple y Starlink, para cambiar de proveedor y de tecnología en el futuro, aunque hasta ahora las negociaciones no parecen haber prosperado. Sin embargo, está claro que en el futuro, la tecnología de Internet satelital irá cobrando importancia, aunque claro, habrá que pagar por ella.

    Disponibilidad

    Actualmente, la función de SOS de Emergencia vía satélite está disponible en el iPhone 14 y modelos posteriores, así como en el Apple Watch Ultra 3, y se ofrece en teoría de forma gratuita durante dos años después de la activación del dispositivo. Sin embargo, hasta ahora Apple no ha empezado a cobrar por este servicio, el cual está disponible en gran parte de Europa (incluyendo España) y México. ¡Ojalá que Apple pueda extenderlo a más países de Latinoamérica!

  • La investigación sobre el presunto plagio del thriller de Apple TV ‘La Caza’ termina y se estrenará pronto

    The Hunt o en español, La Cacería
    Poster de la serie The Hunt o en español, La Cacería

    Sí hubo plagio

    La investigación por plagio sobre sobre la serie “The Hunt» (“La Cacería) en español, de Apple TV ha concluido después de tres meses, y ahora por fin sabemos cuándo se estrenará esta serie de acción y suspense.

    El drama, producido en Francia, consta de seis episodios y estaba programado para lanzarse el 3 de diciembre de 2025. A finales de noviembre, desapareció de la plataforma de Apple después de que surgieran informes de que no se trataba de una serie original, sino que era resultado del plagio de la novela Shoot de Douglas Fairbairn publicada en 1973. Esta novela ya había sido llevada al cine en 1976.

    Apple fue engañado

    Sin embargo, el proyecto se le había vendido a Apple como una obra original del director Cedric Anger. Después de que Apple se enterara del supuesto plagio, inmediatamente notificó al productor Gaumont (la principal empresa de producción cinematográfica en Francia) y detuvo el lanzamiento, tan solo unas dos semanas antes de la fecha de lanzamiento prevista, para dar tiempo a la productora de realizar una revisión interna.

    Según Deadline, Gaumont confirmó el plagio e identificó a los dueños de los derechos de la novela de Fairbairn (quien falleció en 1997). Ese fue el primer paso para poder obtener las autorizaciones necesarias para la adaptación de la obra. La serie ahora se anuncia oficialmente como basada en Shoot.

    ¿De qué trata La cacería?

    En la serie, Benoit Magimel interpreta a Franck, un hombre cuyo viaje de caza de fin de semana con amigos se vuelve violento cuando otro grupo comienza a atacarlos. Melanie Laurent coprotagoniza como su esposa, con Damien Bonnard, Manuel Guillot, Cedric Appietto y Frederic Maranber también con roles importantes en la serie.

    Los dos primeros episodios se estrenarán a nivel mundial el 4 de marzo, seguidos de entregas semanales hasta el 1 de abril.

  • Especulaciones en torno a la F1 y Apple

    Apple TV, dueño de los derechos de retransmisión de la F1 en EEUU
    Apple TV, dueño de los derechos de retransmisión de la F1 en EEUU

    Apple exprime al máximo su inversión en la F1

    A medida que se acerca el inicio de la nueva temporada de F1, se han disparado los rumores acerca de lo que podría hacer Apple, aprovechando su relación con el mundo del motor.

    Segunda parte de la película F1

    Apple ya había insinuado que quería hacer una secuela de F1: La Película, pero el productor de la película, Jerry Bruckheimer ya ha confirmado a la BBC que está trabajando en la secuela. Sin embargo, el productor se negó a dar un calendario para el proyecto o a confirmar detalles del reparto, incluyendo si Pitt retomaría su papel.

    Esto no es ninguna sorpresa, considerando que F1: La Película no solo fue el mayor éxito de taquilla de Apple hasta la fecha, sino que también se ha convertido en la película deportiva más exitosa de la historia, a pesar de que el cine no ha logrado aún recuperase a los niveles de audiencia que tenía antes de la pandemia.

    La confirmación oficial de que una secuela está en desarrollo también tiene sentido teniendo en cuenta la inversión de Apple en el deporte de la Fórmula 1. Sabemos que a partir de marzo, las carreras de F1 comenzarán a transmitirse en Apple TV en los EE. UU.

    Contenido inmersivo para distintos tipos de dispositivos

    El hecho de que la primera carrera de F1 de la temporada se celebrará el fin de semana siguiente al próximo evento de Apple, no ha pasado desapercibido. De hecho, esto ha generado especulaciones en la red, entre ellas una de John Gruber, quien piensa que esto podría ser la oportunidad perfecta para que Apple muestre sus capacidades tecnológican avanzadas, produciendo contenido inmersivo tanto para su canal de streaming como para el dispositivo Vision Pro.

    Es una idea interesante, aunque poco probable a corto plazo. Si bien es cierto que Apple ha utilizado su tecnología para obtener imágenes de escenas de carrera impresionantes para su F1: La Película, una cosa es grabar una película en la que se pueden realizar múltiples toma y corregir defectos en post producción y otra es el directo, donde no hay espacio para el error.

    Hasta ahora, todo el contenido inmersivo para el Apple Vision Pro ha sido material corto, creado especialmente para ese dispositivo. Hay que recordar que se trata de un proceso complicado, con cámaras caras que aún son muy escasas y que aún no hay mucha experiencia creando material de este tipo.

    No dudo de que Apple va a buscar transmitir contenido emocionante en su servicio de streaming y que va a usar todo su know-how tecnológico para lograrlo, pero las mejoras van a ser incrementales. Podemos pensar en más y mejores cámaras en los coches, capacidades de video interactivo donde el espectador puede seguir al coche que desea, etc. Sin embargo, que Apple lance ahora un servicio de video inmersivo de 360 grados es muy improbable.

    Esto no significa que las cosas no cambien rápidamente en los próximos dos años. Ya hemos visto que Apple se ha acercado a equipos como el Real Madrid para hablar del tema y sin duda veremos cada vez más contenido inmersivo, pero probablemente sea para material en el que Apple tenga derechos a nivel global, no como en la F1 donde los derechos solo cubren los EEUU.

    La F1 se transmitirá en cines IMAX en EEUU

    Muestra de las ambiciones de Apple ha sido el anuncio de que al menos cinco carreras de F1 se transmitirán en directo en cines IMAX en EEUU. Sin duda es una muestra más de la voluntad de Apple de sacar el mayor valor a su inversión en la retransmisión de deportes en vivo. Los próximos años van a ser muy interesantes y podrían ser tan revolucionarios o más de lo que fue el lanzamiento de la alta definición, hace ya casi 30 años.

  • Ring pretendía usar la función «Search Party» para rastrear personas

    Ring Search Party parece ser una amenaza para la privacidad
    Ring Search Party parece ser una amenaza para la privacidad

    Ring nos quiere vigilar a todos

    Ring es una compañía adquirida por Amazon en 2018 y que ofrece productos de videovigilancia, principalmente en Norteamérica y Europa. En EEUU también ofrece diversos servicios de seguridad, bajo el nombre Ring Protect.

    Son justamente esos servicios, que van desde guardar los videos de vigilancia en la nube hasta monitoreo profesional de la señal de video y llamada inmediata a los servicios de emergencia en caso de ser necesario, los que están en el ojo del huracán.

    El anuncio de la discordia

    Durante el Superbowl, el evento deportivo más visto en EEUU, Ring puso un anuncio llamado “Search Party” (equipo de búsqueda) en el que se mostraba cómo esta nueva herramienta permitía encontrar un perro perdido.

    Presentada inicialmente como una herramienta que ayudaba a localizar mascotas perdidas, esta funcionalidad inmediatamente empezó a ser rechazada por gran parte de la audiencia porque la gente se percató que a futuro podría ser usada para rastrear personas .

    Esta reacción no refleja paranoia. En efecto, Ring ya ofrece una funcionalidad llamada “Familiar Faces” que utiliza el reconocimiento facial para identificar a las personas capturadas por las cámaras. Por lo tanto, combinar ambas tecnologías es el siguiente paso lógico y nos acercaría aún más en dirección a una sociedad vigilada en permanencia.

    La prueba de las verdaderas intenciones de Ring

    Estos temores ahora se han visto confirmados tras la divulgación de un correo electrónico interno enviado por el fundador de la empresa, Jamie Siminoff.

    En él, Siminoff expresó su creencia de que la tecnología podría «eliminar la delincuencia en los vecindarios», imaginando un futuro en el que las capacidades de Ring se extiendan mucho más allá de la localización de mascotas perdidas, confirmando los temores del público.

    Además sugirió que la tecnología de Ring podría haberse utilizado para atrapar a delincuentes aprovechando la función Community Requests (Solicitudes de la Comunidad) de la empresa. Esta herramienta permite a las fuerzas del orden solicitar imágenes a los propietarios de cámaras, gracias a una asociación con la empresa de tecnología policial Axon (la cual fue cancelada hace unos días, coincidiendo con la reacción negativa del público).

    Si bien Ring sostiene que Search Party «no procesa datos biométricos humanos ni rastrea a las personas» y que «compartir (información y videos) siempre ha sido opcional para el propietario de la cámara», las palabras de Siminoff han suscitado serias dudas sobre las intenciones de la empresa.

    El incidente ha provocado una crisis de relaciones públicas por lo que Siminoff, según se informa, se ha embarcado en una «gira de disculpas” para abordar las preocupaciones de sus clientes y del público en general.

    Una tendencia peligrosa

    La situación pone de relieve una tendencia creciente en la industria tecnológica: la introducción de tecnologías potencialmente invasivas bajo la apariencia de aplicaciones inofensivas o incluso beneficiosas.

    Al centrarse inicialmente en las mascotas, las empresas pueden suavizar el golpe y normalizar la idea de la vigilancia generalizada.

    Este enfoque refleja las tácticas observadas en otras industrias, como las pruebas de ADN de mascotas, que han allanado el camino para una mayor aceptación de las pruebas de ADN humano.

    Las regulaciones que rodean los productos y servicios centrados en mascotas suelen ser menos estrictas, lo que permite a las empresas refinar su tecnología antes de aplicarla a los humanos.

    La controversia en torno a la función Search Party de Ring sirve como un crudo recordatorio de las consideraciones éticas en torno a la tecnología de vigilancia. A medida que los dispositivos para hogares inteligentes se integran cada vez más en nuestras vidas, es fundamental examinar el potencial de uso indebido y garantizar que se protejan la privacidad y las libertades civiles.