gadgetsgenial.es

Categoría: Google

Noticias relacionadas con los productos y servicios ofrecidos por Google

  • Matter 1.5.1 mejora el soporte para cámaras de seguridad inteligentes

    Unas mejoras necesarias

    Cuando piensas en el estándar de hogar inteligente Matter, desarrollado por gigantes tecnológicos como Apple, Google y Samsung, probablemente imaginas enchufes inteligentes, luces o termostatos conectados. Su promesa siempre ha sido clara: interoperabilidad total entre marcas.

    Sin embargo, el soporte para capacidades avanzadas de las cámaras de seguridad había quedado rezagado, hasta ahora.

    La Connectivity Standards Alliance acaba de lanzar Matter 1.5.1, una actualización diseñada específicamente para resolver los mayores problemas de compatibilidad entre cámaras inteligentes.


    Streaming múltiple: más eficiencia y menos consumo

    La novedad más importante es el soporte de video y audio multi-stream.

    Antes:

    • Configurar diferentes transmisiones para apps y dispositivos era complicado
    • Consumía mucho ancho de banda

    Ahora, una sola cámara puede enviar varios streams simultáneos optimizados:

    • Video en alta resolución, para grabación en la nube o NVR
    • Stream ligero, para ver desde el móvil
    • Stream dedicado, para análisis con IA
    • Soporte para cámaras con múltiples lentes

    El resultado es menos consumo de red y mejor integración entre ecosistemas.


    Nuevos formatos multimedia más eficientes

    Matter 1.5.1 también mejora la compatibilidad con formatos modernos:

    Fotos en HEIC

    Las capturas ahora pueden usar HEIC, el formato popular en smartphones modernos.
    Ventajas:

    • Mejor calidad que JPEG
    • Menor tamaño de archivo

    Video con HLS y DASH

    Se añade compatibilidad completa con:

    • HLS
    • DASH
    • CMAF Interface-2

    Estos estándares ya dominan el streaming moderno, lo que facilita la integración con plataformas cloud y servicios multimedia.


    Mejoras en hardware: cámaras PTZ y timbres inteligentes

    La actualización también incluye mejoras prácticas para dispositivos físicos.

    Cámaras PTZ más flexibles

    Las cámaras pan-tilt-zoom ahora pueden moverse con mayor libertad, incluso si su posición inicial está en el límite del rango de rotación.

    Timbres y melodías personalizables

    Los timbres inteligentes reciben mejoras clave:

    • Reproducción de tonos personalizados
    • Automatizaciones basadas en el sonido del timbre
    • Diferentes tonos según hora o puerta

    Por ejemplo, ahora cada puerta puede tener un sonido distinto o usar tonos especiales en fechas festivas.


    Qué significa Matter 1.5.1 para el futuro del hogar inteligente

    Aunque Matter 1.5.1 es una actualización “de mantenimiento”, su impacto es enorme al por fin acercar las cámaras inteligentes a la promesa original de interoperabilidad total.

    Actualmente, Samsung SmartThings es el ecosistema más avanzado en integrar estas mejoras, pero ahora que la especificación está disponible, solo es cuestión de tiempo para que más fabricantes adopten el estándar.

    El resultado será un hogar inteligente más simple, rápido y realmente compatible entre marcas.

  • Android 17 revoluciona la multitarea

    Android 17 revoluciona la multitarea mediante el uso generalizado de burbujas
    Android 17 revoluciona la multitarea mediante el uso generalizado de burbujas

    Burbujas por todos lados

    La multitarea en smartphones está a punto de cambiar por completo. Con la llegada de Android 17 Beta 3, Google presentó una nueva función que promete transformar la forma en que usamos el teléfono, mediante el uso de burbujas flotantes universales para cualquier app.

    Esta nueva ventana flotante elimina la necesidad de cambiar constantemente entre una aplicación y otra para ofrecer así una experiencia mucho más fluida y rápida.


    De las burbujas de chat a TODAS las apps

    El concepto no es completamente nuevo. Las burbujas nacieron hace años con Messenger y llegaron de forma nativa a Android 11 para chats. Ahora, Android 17 lleva la idea mucho más lejos.

    Con esta actualización podrás convertir cualquier aplicación en una burbuja flotante:

    • Ver videos mientras navegas
    • Consultar mapas sin salir de otra app
    • Mantener redes sociales o apps de IA siempre accesibles
    • Alternar entre apps sin abrir el menú de multitarea

    La burbuja queda flotando en el borde de la pantalla. Tocas para abrir una vista previa y vuelves a tocar para minimizarla.


    Control total del usuario (sin caos en pantalla)

    Google diseñó la función para que sea completamente opcional.

    Nada se fijará automáticamente:

    1. Mantén presionado el icono de la app
    2. Selecciona la opción “Bubble”
    3. Listo: la app queda disponible como ventana flotante

    Esto evita saturar la pantalla y deja la multitarea completamente bajo control del usuario.


    Mejor experiencia en tablets y plegables

    La función está optimizada para todo tipo de pantallas.

    En smartphones:

    • Ahorra espacio
    • Facilita cambiar entre apps rápidamente

    En tablets y plegables:

    • Nueva bubble bar (barra de burbujas) integrada en la barra de tareas
    • Posibilidad de arrastrar apps y fijarlas en la parte inferior
    • Organización más cómoda de múltiples burbujas

    Esto refuerza la apuesta de Android por dispositivos de gran pantalla.


    ¿Ventaja estratégica frente al iPhone?

    El lanzamiento llega en un momento clave del mercado móvil. Con los rumores sobre un futuro iPhone plegable de Apple, Android 17 busca adelantarse con una interfaz más flexible y productiva, aunque la multitarea es algo que ya tiene bastante bien resuelto Apple en su iPad.

    Las burbujas universales no son solo un cambio visual, representan un salto importante en productividad móvil y podrían convertirse en una de las funciones más influyentes de la nueva versión del sistema.

  • RCS 4.0, el nuevo estándar de mensajería con videollamadas nativas entre iPhone y Android

    GSMA anuncia RCS 4.0, la nueva generación de mensajería nativa entre iPhone y Android
    GSMA anuncia RCS 4.0, la nueva generación de mensajería nativa entre iPhone y Android

    Una buena iniciativa que llega muy tarde

    Los protocolos de mensajería móvil estándar siguen evolucionando rápidamente, después de que el uso de los mensajes SMS cayera en picado, reemplazado por servicios propietarios como WhatsApp.

    En 2024, presionado por las autoridades europeas, Apple anunció que adoptaría el estándar RCS (que debería aparecer en iOS 27). Esto debería significar un gran paso hacia la interoperabilidad con Android (en especíal en EEUU, donde el uso de iMessage es importante).

    Ahora, la organización GSMA ha finalizado el nuevo estándar RCS Universal Profile 4.0, que promete transformar la forma en que nos comunicamos entre plataformas, sin necesidad de usar servicios de mensajería propietarios.

    Este nuevo perfil introduce videollamadas nativas desde los mensajes, texto enriquecido y mejoras importantes para compartir contenido multimedia y comunicarse con empresas.


    RCS 4.0 con videollamadas desde el chat

    La gran novedad es Messaging-Initiated Video Calls (MIVC).

    Actualmente, tener una videollamada entre iPhone y Android obliga a usar apps externas como WhatsApp o Google Meet. Con RCS 4.0 esto cambiará por completo.

    La nueva función permitirá:

    • Iniciar videollamadas directamente desde el chat nativo, usando estándares abiertos
    • Tener conversaciones individuales y grupales
    • Entrar o salir de la videollamada sin interrumpir el chat
    • Guardar el historial de llamadas dentro de la conversación

    El objetivo es lograr la primera experiencia de videollamadas verdaderamente interoperable entre sistemas.


    Mensajes más expresivos y multimedia de mayor calidad

    El estándar también moderniza el texto y los archivos compartidos.

    Entre las novedades:

    • Formato de texto enriquecido: negritas, cursivas y tachado
    • Compatibilidad retroactiva con SMS si el receptor no soporta RCS
    • Envío de fotos, audio y video con menos compresión
    • Selección automática del mejor formato compatible entre dispositivos

    Esto significa el fin de los videos borrosos o fotos comprimidas al enviar entre distintas plataformas.


    Mensajería empresarial más útil y segura

    RCS 4.0 también mejora la interacción con negocios dentro del chat.

    Las empresas podrán:

    • Enviar tarjetas interactivas con video en streaming
    • Abrir enlaces simples dentro del chat
    • Redirigir pagos u operaciones sensibles a apps seguras
    • Mejorar la verificación de enlaces y la identidad del remitente

    El objetivo es crear experiencias más seguras y fluidas sin salir de la app de mensajes.


    ¿Cuándo llegará RCS 4.0?

    Aunque el estándar ya está definido, aún falta la implementación por parte de fabricantes y plataformas como Apple o Google.

    Actualmente:

    • RCS 3.0 y 3.1 aún están en fase inicial de despliegue
    • No hay confirmación oficial ni de Apple ni de Google de que soportarán MIVC

    Por ello, la adopción masiva de RCS 4.0 podría llegará entre finales de 2026 y principios de 2027. Dicho lo anterior, también podría no llegar nunca, dado que podría afectar a los intereses de muchas empresas, a menos de que haya presión por las autoridades regulatorias.

    También hay que considerar que incluso si iOS y Android terminan implementando esta tecnología, será difícil convencer a los usuarios que abandonen sus costumbres y empiecen a usar el nuevos sistema. Es probable que esto tarde años.


    Sin embargo, el anuncio de RCS 4.0 confirma que la industria finalmente se encamina hacia una mensajería universal, rica en funciones y sin barreras entre sistemas.

  • Android se protege adoptando criptografía post-cuántica

    Android se protege adoptando criptografía post-cuántica. Fecha límite 2029.
    Android se protege adoptando criptografía post-cuántica. Fecha límite 2029.

    2029 será el año clave para la ciberseguridad mundial

    Durante años, el mundo de la ciberseguridad ha temido el llamado Q-Day, el momento en que una computadora cuántica sea capaz de romper los sistemas criptográficos que protegen Internet. Hasta hace poco, este escenario parecía lejano y situado en la década de 2030. Hoy, el panorama cambió ya que 2029 se perfila como la nueva fecha límite global.

    Google ha actualizado su modelo de amenazas y estableció como objetivo prioritario migrar completamente a criptografía post-cuántica (PQC) antes de 2029.


    Por qué la amenaza cuántica se acerca más rápido

    Tres avances clave están acelerando el calendario:

    1) Grandes avances en hardware cuántico

    Los últimos años han sido decisivos:

    • IBM presentó su procesador cuántico Nighthawk a finales de 2025 de 120 qubits y tiene una red de más de 100 computadoras cuánticas que ya pueden ser utilizadas por investigadores y clientes
    • Google presentó el chip cuántico Willow (2024) con mejoras en estabilidad de qubits.

    2) Mejoras en corrección de errores cuánticos

    Uno de los mayores obstáculos para computadoras cuánticas funcionales está siendo superado rápidamente.

    3) Nuevos cálculos sobre ruptura de cifrado

    Investigaciones recientes muestran que algoritmos como RSA y la criptografía de curvas elípticas podrían volverse vulnerables mucho antes de lo previsto.


    El peligro ya existe: “robar ahora, descifrar después”

    Aunque las computadoras cuánticas aún no rompen el cifrado actual, los atacantes ya están recolectando datos cifrados para descifrarlos en el futuro.

    Esto pone en riesgo:

    • Información gubernamental
    • Datos financieros
    • Comunicaciones privadas
    • Firmas digitales y autenticación online

    Por ello, la migración debe ocurrir antes de que llegue una computadora cuántica relevante criptográficamente (CRQC).


    Android 17 integra criptografía post-cuántica

    Google está dando el ejemplo incorporando PQC directamente en Android 17.

    El sistema adoptará el algoritmo ML-DSA, estandarizado por NIST, en tres niveles clave:

    Seguridad al encender el dispositivo

    El sistema de arranque verificado ahora usa firmas resistentes a ataques cuánticos.

    Protección de apps y llaves criptográficas

    El Android Keystore permitirá a desarrolladores usar claves seguras frente a computadoras cuánticas.

    Seguridad en Google Play

    Las apps se firmarán con claves híbridas (criptografía clásica + post-cuántica), garantizando compatibilidad y protección futura.


    La transición ya es global

    Google no está solo. De hecho la industria completa se está moviendo y otros ya se habían adelantado:

    La estandarización de NIST en 2024 aceleró la adopción mundial.


    2029: la nueva fecha límite para la seguridad digital

    Al fijar 2029 como meta, Google envía un mensaje contundente, la transición a la criptografía post-cuántica ya no es opcional ni algo que se pueda posponer.

    Empresas, gobiernos y desarrolladores deben actuar ahora para proteger la infraestructura digital del mundo ante la próxima revolución tecnológica.

  • TurboQuant, la solución de Google para la crisis de memoria en la IA

    TurboQuant, la solución de Google para la crisis de memoria en la IA
    TurboQuant, la solución de Google para la crisis de memoria en la IA

    El consumo de memoria en el entrenamiento de la IA es un problema

    La inteligencia artificial enfrenta un problema crítico, a saber su enorme consumo de memoria RAM. El auge de la IA generativa ha disparado la demanda global de memoria, elevando precios hasta 5 veces y presionando a toda la industria tecnológica.

    Ahora, Google propone una solución radicalmente distinta con TurboQuant. El objetivo es reducir drásticamente el uso de memoria sin sacrificar rendimiento.


    El problema: la memoria como cuello de botella

    Los modelos LLM requieren RAM por dos razones principales:

    1. Cargar sus parámetros (decenas o cientos de GB)
    2. Mantener un espacio de trabajo activo llamado KV cache

    Este KV cache almacena información de contexto para evitar recalcular cada paso. Pero a medida que crecen las conversaciones o los documentos, el consumo de memoria se dispara, generando un cuello de botella crítico.

    Las soluciones tradicionales de compresión (cuantización) ayudan, pero añaden “sobrecarga” al necesitar datos adicionales para funcionar, lo que reduce su eficiencia real.


    TurboQuant propone compresión extrema sin pérdida

    TurboQuant introduce un enfoque innovador basado en dos técnicas clave:

    PolarQuant: compresión basada en geometría

    Convierte datos de coordenadas cartesianas a coordenadas polares, reduciendo la complejidad y eliminando la necesidad de cálculos adicionales. Esto permite comprimir información sin añadir sobrecarga.

    QJL (Johnson-Lindenstrauss cuantizado)

    Actúa como un corrector matemático que, con solo un bit adicional, mantiene la precisión del modelo y elimina errores derivados de la compresión extrema.


    Hasta 6x menos memoria y más velocidad

    En pruebas con modelos como Gemma y Mistral, los resultados son contundentes:

    • Reducción del consumo de memoria de hasta 6 veces
    • Aceleración de rendimiento de hasta 8x en GPUs como NVIDIA H100
    • Compresión del KV cache hasta solo 3 bits
    • Sin necesidad de reentrenar modelos

    Además, mantiene precisión perfecta en benchmarks como:

    • LongBench
    • ZeroSCROLLS
    • Pruebas “needle in a haystack”

    Impacto en la industria tecnológica

    Si TurboQuant se adopta ampliamente, podría cambiar el equilibrio del mercado:

    • Menor demanda de RAM se traduce en caída de precios
    • Impacto en fabricantes como Samsung, Micron y SK Hynix
    • Mayor presión sobre procesadores y GPUs

    En otras palabras, la industria podría pasar de una “crisis de memoria” a una “crisis de cómputo”.


    El futuro de la eficiencia en IA

    Más allá del hardware, Google demuestra que los avances en IA también dependen de innovaciones matemáticas profundas.

    Con TurboQuant, la compañía no solo reduce costos y mejora rendimiento, sino que redefine cómo se construyen sistemas de IA a gran escala.

    La próxima gran revolución de la inteligencia artificial podría no venir de chips más grandes, sino de algoritmos más inteligentes.

  • Meta y Google condenados en fallo histórico por adicción a redes sociales

    Meta y Google condenados en fallo histórico por adicción a redes sociales
    Meta y Google condenados en fallo histórico por adicción a redes sociales

    Este fallo puede tener grandes consecuencias

    Un jurado del Los Angeles Superior Court ha emitido un veredicto histórico que podría redefinir la industria tecnológica: Meta y Google fueron declaradas responsables por diseñar plataformas de redes sociales con características adictivas.

    El fallo concluyó que la negligencia de ambas compañías fue un factor determinante en los graves problemas de salud mental de una joven, marcando el inicio de lo que podría convertirse en una ola de litigios contra las Big Tech.


    Indemnización millonaria y posibles sanciones mayores

    Tras cinco semanas de juicio y nueve días de deliberaciones, el jurado ordenó el pago de 3 millones de dólares en daños compensatorios:

    • Meta cubrirá el 70%
    • Google el 30%

    Además, el jurado determinó que proceden daños punitivos, lo que podría elevar significativamente la sanción final.


    Un uso desmedido de RR.SS. desde la infancia y graves consecuencias

    La demanda fue presentada por una joven identificada como Kaley G.M., quien aseguró que plataformas como YouTube, Instagram y Facebook marcaron negativamente su desarrollo desde la infancia.

    Según su testimonio:

    • Comenzó a usar YouTube a los 6 años
    • Se volvió usuaria de Instagram a los 9

    La exposición constante derivó en:

    • Problemas de sueño
    • Aislamiento social
    • Bajo rendimiento escolar
    • Trastornos como dismorfia corporal, depresión e ideación suicida

    Su terapeuta testificó que el uso excesivo de redes sociales fue un factor directo en su deterioro psicológico, lo que la llevó incluso autolesionarse desde los 10 años.


    Diseño adictivo bajo escrutinio

    El equipo legal de la demandante argumentó que funciones clave fueron diseñadas intencionalmente para generar dependencia, como:

    • Algoritmos de recomendación
    • Scroll infinito
    • Reproducción automática
    • Métricas de validación como los “likes”

    Durante el juicio, el CEO de Meta, Mark Zuckerberg, defendió que el objetivo de plataformas como Instagram es ser “útiles”, rechazando las acusaciones.

    Por su parte, Google sostuvo que YouTube cuenta con herramientas de control como límites de uso y filtros de seguridad.


    Apelaciones y una batalla legal que apenas comienza

    Ambas compañías ya confirmaron que apelarán el fallo. Argumentan que la salud mental juvenil es un fenómeno complejo que no puede atribuirse a un único factor.

    Cabe destacar que TikTok y Snap Inc. también estaban incluidas en la demanda, pero llegaron a acuerdos extrajudiciales antes del juicio.


    Un precedente que podría cambiar internet

    Este caso es tan solo uno de los primeros de una serie de juicios similares en Estados Unidos. Expertos legales lo consideran un “caso piloto” que podría sentar precedentes clave sobre responsabilidad de producto en plataformas digitales.

    También pone en el centro del debate la Section 230, la ley que históricamente ha protegido a las tecnológicas de ser responsables por contenido generado por usuarios.

    Sin embargo, de momento el debate no está centrado en el contenido, sino en el diseño de las aplicaciones de redes sociales. La pregunta que se hace a los jurados es si ese diseño las hace adictivas.


    Presión creciente sobre las Big Tech

    El veredicto llega en un momento especialmente complicado para Meta. Un día antes, otro jurado en Nuevo México ordenó a la empresa pagar 375 millones de dólares por violar leyes estatales y no proteger adecuadamente a menores.

    Con más juicios programados este mismo año, todo apunta a un cambio estructural en la industria. Reguladores, tribunales y la presión social podrían obligar a las tecnológicas a rediseñar profundamente sus plataformas.

    La era del crecimiento sin límites en redes sociales podría estar llegando a su fin.

  • Google lanza Lyria 3 Pro, para generar canciones

    Lyria 3 Pro de Google ahora crea canciones completas de hasta 3 minutos
    Lyria 3 Pro de Google ahora crea canciones completas de hasta 3 minutos

    Ahora crea canciones completas de hasta 3 minutos

    Google sigue avanzando en su apuesta por convertirse en el líder absoluto en inteligencia artificial con el lanzamiento de Lyria 3 Pro, una nueva versión de su modelo de generación musical capaz de crear canciones completas de hasta tres minutos. Esto representa un salto significativo frente al límite anterior de solo 30 segundos.

    Pero la mejora no se limita a la duración. La compañía también ha introducido controles mucho más precisos, colocándose al nivel de herramientas como Suno y Udio. Ahora, los usuarios pueden definir la estructura completa de una canción, indicando dónde deben ir las intros, versos, coros o puentes.


    Mayor control creativo con IA

    Según Google, Lyria 3 Pro tiene una comprensión más avanzada de la composición musical, lo que permite experimentar con transiciones complejas y arreglos más sofisticados.

    Los usuarios pueden generar música describiendo:

    • Estado de ánimo
    • Estilo musical
    • Instrumentación específica

    Además, la IA puede crear letras a partir de texto, imágenes o incluso videos, ampliando significativamente las posibilidades creativas.


    Integración total en el ecosistema de Google

    En lugar de lanzar una app independiente, Google está integrando esta tecnología en sus plataformas existentes:

    • Usuarios de Gemini ya pueden generar canciones directamente en el chatbot
    • Empresas pueden acceder vía Vertex AI
    • Los desarrolladores pueden hacerlo a través de Google AI Studio y la API de Gemini
    • Integración en Google Vids para creación de contenido audiovisual

    También destaca su llegada a ProducerAI, una plataforma adquirida recientemente que compite directamente con Suno.


    Derechos de autor bajo la lupa

    El avance tecnológico también reaviva preocupaciones sobre copyright y suplantación de artistas. Ante esto, Google asegura que el modelo fue entrenado únicamente con contenido sobre el que tiene derechos.

    Además:

    • No permite imitar artistas específicos
    • Interpreta nombres como referencia estilística general
    • Verifica coincidencias con contenido existente
    • Incluye marcas de agua invisibles mediante SynthID para identificar contenido generado por IA

    Un mercado saturado de música generada por IA

    El lanzamiento llega en un contexto complejo. Plataformas como Spotify ya enfrentan una avalancha de contenido sintético. Se estima que alrededor de 50,000 canciones generadas por IA se suben diariamente, lo que llevó a eliminar cerca de 75 millones de pistas el año pasado.

    Con Lyria 3 Pro facilitando aún más la creación de canciones completas, la industria musical podría enfrentarse a una nueva ola masiva de contenido automatizado.


    ¿Innovación o saturación?

    Aunque los avances de Google son impresionantes, queda abierta la pregunta clave: ¿realmente necesitamos más generadores de música con IA?

    Con la barrera de entrada cada vez más baja, la creatividad digital vive un auge sin precedentes, pero también un riesgo creciente de saturación. El impacto de herramientas como Lyria 3 Pro podría redefinir no solo cómo se produce la música, sino también cómo se consume en la era de la inteligencia artificial.

  • Apple miniaturiza Gemini, destilando el modelo de Google

    Apple crea la nueva generación de IA en el iPhone, destilando el modelo Gemini
    Apple crea la nueva generación de IA en el iPhone, destilando el modelo Gemini

    Así busca Apple impulsar la nueva generación de IA en el iPhone

    Apple está preparando un salto clave en inteligencia artificial, y lo hará con ayuda de su rival directo, Google. Gracias a un acuerdo estratégico, la compañía ha obtenido acceso avanzado al modelo Gemini, pero en lugar de usarlo tal cual, está aplicando una técnica innovadora para adaptarlo a sus dispositivos.


    La clave: “destilación” de modelos de IA

    Apple está utilizando un método llamado distillation (destilación) para transformar el potente modelo de Gemini en versiones más pequeñas y eficientes.

    El proceso funciona así:

    • Gemini actúa como “maestro”
    • Los modelos de Apple aprenden su lógica y razonamiento
    • Se crean versiones reducidas especializadas

    El resultado son modelos más ligeros que conservan gran parte de la precisión del original, pero consumen muchos menos recursos.


    IA en el dispositivo, una solución más rápida y privada

    El objetivo de Apple es llevar la inteligencia artificial directamente al iPhone.

    Gracias a estos modelos “mini”:

    • Las funciones de IA se ejecutan sin conexión a internet
    • Las respuestas son más rápidas
    • Se reducen costos de procesamiento
    • Se refuerza la privacidad (los datos no salen del dispositivo)

    Esto encaja con la estrategia de Apple Intelligence, centrada en procesamiento local, algo que es posible gracias a los procesadores de Apple.


    Una Siri completamente nueva

    Estos avances serán fundamentales para la próxima evolución de Siri, que llegará con iOS 27.

    La nueva versión permitirá:

    • Resumir documentos
    • Responder preguntas complejas
    • Ejecutar tareas entre apps
    • Generar contenido
    • Interactuar de forma conversacional

    En esencia, Siri pasará de asistente básico a un verdadero chatbot avanzado.


    Ajustando Gemini al ecosistema Apple

    El proceso no ha sido automático.

    Dado que Gemini fue entrenado principalmente para programación y uso general, Apple ha tenido que:

    • Ajustar respuestas
    • Adaptar el modelo a su ecosistema
    • Optimizarlo para experiencias móviles

    El trabajo está liderado por el equipo interno de modelos fundacionales de Apple.


    Una estrategia clara con menos nube y más procesamiento local

    A diferencia de otras compañías, Apple no busca competir directamente con modelos gigantes en la nube.

    Su enfoque es híbrido:

    • Modelos pequeños en el dispositivo (uso diario)
    • Gemini completo para tareas más pesadas

    Esto permite equilibrar rendimiento, privacidad y capacidad.


    El futuro de la IA en el iPhone

    La apuesta de Apple redefine cómo se implementa la inteligencia artificial en dispositivos móviles.

    En lugar de depender totalmente de servidores, la compañía está construyendo un ecosistema donde la IA vive en el bolsillo del usuario.

    Si esta estrategia funciona, el iPhone podría convertirse en uno de los dispositivos más avanzados en IA, sin comprometer privacidad ni velocidad.

  • Google TV se vuelve más inteligente

    Google TV se vuelve más inteligente con nuevas funciones basadas en la IA Gemini
    Google TV se vuelve más inteligente con nuevas funciones basadas en la IA Gemini

    Llegan nuevas funciones a Google TV con la IA Gemini

    Google sigue apostando por la inteligencia artificial en el hogar. Ahora, Google TV recibe tres nuevas funciones impulsadas por Gemini que buscan eliminar uno de los mayores problemas del streaming, a saber, pasar más tiempo buscando qué ver que disfrutando contenido.

    Estas novedades convierten la televisión en una experiencia más interactiva, informativa y personalizada.


    Respuestas visuales más completas

    La primera mejora cambia cómo responde el sistema a tus preguntas.

    En lugar de mostrar solo texto, Gemini ahora combina:

    • Texto
    • Imágenes
    • Videos

    Por ejemplo:

    • Si pides una receta, verás instrucciones + video paso a paso
    • Si consultas un partido, obtendrás marcador en vivo + dónde verlo

    El objetivo es ofrecer respuestas más útiles sin necesidad de usar el celular.


    “Deep Dives”: contenido interactivo para aprender

    Google también introduce los llamados “deep dives”, experiencias interactivas diseñadas para explorar temas en profundidad.

    Puedes usarlos para aprender sobre:

    • Ciencia
    • Tecnología
    • Economía
    • Tendencias

    La función genera una guía visual personalizada y permite hacer preguntas adicionales, convirtiendo tu TV en una especie de centro educativo.

    Se accede desde:

    • Opción “Dive deeper” tras una consulta
    • Sección “Learn” dentro de la pestaña Gemini

    Resúmenes deportivos narrados

    Para los fans del deporte, llegan las actualizaciones deportivas con IA.

    Esta función ofrece:

    • Resúmenes narrados
    • Actualizaciones rápidas
    • Información visual integrada

    Ligas compatibles actualmente:

    • NBA
    • NCAA
    • NHL
    • MLS
    • NWSL

    Todo se integra directamente en la pestaña Gemini, evitando tener que revisar el teléfono.


    Disponibilidad

    • Las respuestas visuales ya están disponibles en EE.UU. y Canadá
    • Los “deep dives” y resúmenes deportivos llegan primero a EE.UU.
    • Más países recibirán la función próximamente

    Google planea expandir estas capacidades a mercados como Reino Unido, Australia y Nueva Zelanda en los próximos meses.


    Una TV más útil gracias a la IA

    Con estas funciones, Google TV deja de ser solo una plataforma de entretenimiento para convertirse en una herramienta más completa.

    La integración de Gemini apunta a un objetivo claro: reducir la fricción, mejorar la experiencia y aprovechar la pantalla más grande del hogar para algo más que solo ver series.

    En un entorno donde la IA está redefiniendo todos los dispositivos, la televisión también empieza a volverse inteligente de verdad.

  • Google usa Gemini para revolucionar la ciberseguridad

    Google usa Gemini para revolucionar la ciberseguridad analizando datos de la Dark Web
    Google usa Gemini para revolucionar la ciberseguridad analizando datos de la Dark Web

    Iluminando lo que pasa en la Dark Web

    El mayor problema de los equipos de ciberseguridad no es la falta de datos, sino el exceso de ruido. Las herramientas tradicionales generan hasta un 90% de falsos positivos, dificultando detectar amenazas reales a tiempo.

    Para cambiar esto, Google ha integrado capacidades avanzadas de inteligencia de la dark web en Google Threat Intelligence, impulsadas por su IA Gemini.

    El objetivo Google es pasar del monitoreo basado en palabras clave a un análisis contextual profundo y automatizado.


    De millones de amenazas a inteligencia accionable

    Los agentes de Gemini analizan diariamente entre 8 y 10 millones de publicaciones en la dark web, con una precisión interna cercana al 98%.

    El sistema identifica:

    • Venta de accesos iniciales (initial access brokers)
    • Filtraciones de datos
    • Amenazas internas
    • Conversaciones relevantes de ciberdelincuentes

    Y reduce ese enorme volumen a alertas realmente críticas para cada organización.


    Cómo funciona: perfilado automático y análisis contextual

    Al activar el monitoreo, la plataforma crea automáticamente un perfil detallado de la organización usando inteligencia de fuentes abiertas:

    • Estructura empresarial
    • Tecnologías utilizadas
    • Marcas y activos
    • Ejecutivos clave

    Esto permite que la IA entienda el contexto específico de cada empresa y detecte amenazas dirigidas, incluso cuando no se menciona explícitamente su nombre.

    Además, el sistema incluye citas de las fuentes, mejorando la transparencia del análisis.


    Detectar amenazas invisibles para herramientas tradicionales

    Uno de los mayores avances está en identificar ataques ambiguos.

    Por ejemplo, en foros clandestinos, los atacantes suelen describir objetivos sin nombrarlos directamente:

    • “Empresa europea de retail con $15 mil millones en ingresos”
    • “Banco norteamericano con 50,000 empleados”

    Las herramientas tradicionales no detectan estos casos. Pero Gemini utiliza comparaciones vectoriales para cruzar esos datos con el perfil de la empresa y determinar si coincide.

    El resultado es sorprendente, alertas de alta prioridad antes de que el ataque se concrete.


    IA + humanos: la combinación clave

    El sistema no funciona de forma aislada. Está respaldado por expertos del Google Threat Intelligence Group, que monitorean más de 600 grupos de amenazas.

    Esta combinación permite:

    • Evaluar mejor la gravedad de ataques
    • Entender el contexto de los actores maliciosos
    • Reducir errores en la interpretación

    Nuevos agentes de IA para automatizar la respuesta

    Google también está llevando la automatización más allá del análisis.

    En Google Security Operations, parte de GCP, nuevos agentes de IA (en fase preview) pueden:

    • Investigar alertas automáticamente
    • Recopilar evidencia
    • Emitir conclusiones con explicaciones

    Además, el soporte para servidores MCP permite crear agentes personalizados sin necesidad de infraestructura propia compleja.


    Seguridad y privacidad bajo control

    Ante posibles preocupaciones, Google asegura que:

    • Se utilizan principalmente datos públicos
    • El usuario controla qué información comparte
    • El sistema mantiene transparencia en sus fuentes

    El futuro de la ciberseguridad ya está aquí

    Con Gemini, Google redefine cómo se analiza la dark web.

    La combinación de:

    • Escala masiva
    • Contexto organizacional
    • Automatización inteligente

    marca un cambio de paradigma. La IA ya no solo detecta amenazas, sino que permite anticiparlas.

    En un entorno donde los ataques evolucionan constantemente, esta ventaja puede ser decisiva para mantenerse un paso adelante de los ciberdelincuentes.