gadgetsgenial.es

Categoría: Gemini

Noticias relacionadas con la IA de Google

  • Apple abrirá Siri a chatbots de IA rivales en iOS 27

    Apple abrirá Siri a chatbots de IA rivales en iOS 27
    Apple abrirá Siri a chatbots de IA rivales en iOS 27

    El fin de la exclusividad de ChatGPT

    Según Marc Gurman, de Bloomberg, Apple prepara uno de los cambios más importantes en la historia de Siri. Durante la Worldwide Developers Conference(WWDC) del 8 de junio de 2026, la compañía presentaría iOS 27, una actualización que permitirá integrar chatbots de IA de terceros directamente con el asistente.

    Este movimiento marcaría el fin de la exclusividad de ChatGPT dentro del ecosistema Apple y abriría la puerta a una nueva era de inteligencia artificial en iPhone, iPad y Mac.


    Siri será compatible con múltiples IA

    Desde la llegada de Apple Intelligence en iOS 18, OpenAI disfrutaba de una integración exclusiva de ChatGPT con Siri para resolver consultas complejas.

    Sin embargo, reportes recientes indican que Apple abandonará este modelo cerrado para adoptar un enfoque más abierto. Con iOS 27, los usuarios podrán conectar Siri con múltiples servicios de IA, entre ellos:

    El objetivo es crear un ecosistema competitivo donde el usuario elija qué IA usar según sus necesidades.


    Así funcionará el nuevo sistema “Extensions”

    Apple implementará un nuevo sistema basado en APIs llamado Extensions, disponible en:

    • iOS 27
    • iPadOS 27
    • macOS 27

    Si el usuario tiene instalada una app de IA compatible, podrá asignarla a tareas específicas dentro de Siri. Por ejemplo:

    • Usar Claude para programación
    • Usar otra IA para búsquedas web
    • Combinar varios asistentes según el tipo de consulta

    Todo se gestionará desde un nuevo menú en Configuración dentro de Apple Intelligence y Siri. Desde ahí, Apple ofrecerá enlaces directos a la App Store para descargar chatbots compatibles.

    Este cambio también abre una nueva fuente de ingresos para Apple mediante suscripciones de IA dentro de la App Store.


    El fin de la exclusividad con OpenAI

    El nuevo modelo pone fin a la relación exclusiva entre Apple y OpenAI.

    Este cambio también llega tras la presión del sector. La startup xAI de Elon Musk incluso presentó una demanda contra Apple y OpenAI, acusándolos de intentar dominar el mercado de IA.

    Con iOS 27, Apple permitirá que cualquier desarrollador integre su chatbot con Siri, siempre que cumpla con las nuevas APIs.


    La estrategia doble de Apple en inteligencia artificial

    Abrir Siri no significa que Apple abandone su propia IA.

    Los dispositivos seguirán usando modelos propios como sistema predeterminado mediante:

    • Procesamiento en el dispositivo
    • Private Cloud Compute para privacidad

    Además, Apple mantiene una relación estratégica con Google. Aunque Gemini podrá integrarse como app externa, Apple también usaría versiones optimizadas de sus modelos para mejorar sus propios sistemas de Apple Intelligence.

    Entre las funciones futuras se esperan:

    • Mayor control dentro de apps
    • Capacidades avanzadas de “Personal Intelligence”
    • Una posible app independiente de Siri con interfaz tipo chatbot

    Un despliegue gradual

    Apple ya comenzó este camino con iOS 26.4, que abrió CarPlay a chatbots de terceros.

    La estrategia de iOS 27 muestra el nuevo enfoque de Apple, mantener el control del ecosistema mientras permite a los usuarios elegir las mejores herramientas de IA disponibles.

    La guerra de los asistentes inteligentes en el iPhone acaba de comenzar.

  • Google lanza Lyria 3 Pro, para generar canciones

    Lyria 3 Pro de Google ahora crea canciones completas de hasta 3 minutos
    Lyria 3 Pro de Google ahora crea canciones completas de hasta 3 minutos

    Ahora crea canciones completas de hasta 3 minutos

    Google sigue avanzando en su apuesta por convertirse en el líder absoluto en inteligencia artificial con el lanzamiento de Lyria 3 Pro, una nueva versión de su modelo de generación musical capaz de crear canciones completas de hasta tres minutos. Esto representa un salto significativo frente al límite anterior de solo 30 segundos.

    Pero la mejora no se limita a la duración. La compañía también ha introducido controles mucho más precisos, colocándose al nivel de herramientas como Suno y Udio. Ahora, los usuarios pueden definir la estructura completa de una canción, indicando dónde deben ir las intros, versos, coros o puentes.


    Mayor control creativo con IA

    Según Google, Lyria 3 Pro tiene una comprensión más avanzada de la composición musical, lo que permite experimentar con transiciones complejas y arreglos más sofisticados.

    Los usuarios pueden generar música describiendo:

    • Estado de ánimo
    • Estilo musical
    • Instrumentación específica

    Además, la IA puede crear letras a partir de texto, imágenes o incluso videos, ampliando significativamente las posibilidades creativas.


    Integración total en el ecosistema de Google

    En lugar de lanzar una app independiente, Google está integrando esta tecnología en sus plataformas existentes:

    • Usuarios de Gemini ya pueden generar canciones directamente en el chatbot
    • Empresas pueden acceder vía Vertex AI
    • Los desarrolladores pueden hacerlo a través de Google AI Studio y la API de Gemini
    • Integración en Google Vids para creación de contenido audiovisual

    También destaca su llegada a ProducerAI, una plataforma adquirida recientemente que compite directamente con Suno.


    Derechos de autor bajo la lupa

    El avance tecnológico también reaviva preocupaciones sobre copyright y suplantación de artistas. Ante esto, Google asegura que el modelo fue entrenado únicamente con contenido sobre el que tiene derechos.

    Además:

    • No permite imitar artistas específicos
    • Interpreta nombres como referencia estilística general
    • Verifica coincidencias con contenido existente
    • Incluye marcas de agua invisibles mediante SynthID para identificar contenido generado por IA

    Un mercado saturado de música generada por IA

    El lanzamiento llega en un contexto complejo. Plataformas como Spotify ya enfrentan una avalancha de contenido sintético. Se estima que alrededor de 50,000 canciones generadas por IA se suben diariamente, lo que llevó a eliminar cerca de 75 millones de pistas el año pasado.

    Con Lyria 3 Pro facilitando aún más la creación de canciones completas, la industria musical podría enfrentarse a una nueva ola masiva de contenido automatizado.


    ¿Innovación o saturación?

    Aunque los avances de Google son impresionantes, queda abierta la pregunta clave: ¿realmente necesitamos más generadores de música con IA?

    Con la barrera de entrada cada vez más baja, la creatividad digital vive un auge sin precedentes, pero también un riesgo creciente de saturación. El impacto de herramientas como Lyria 3 Pro podría redefinir no solo cómo se produce la música, sino también cómo se consume en la era de la inteligencia artificial.

  • Apple miniaturiza Gemini, destilando el modelo de Google

    Apple crea la nueva generación de IA en el iPhone, destilando el modelo Gemini
    Apple crea la nueva generación de IA en el iPhone, destilando el modelo Gemini

    Así busca Apple impulsar la nueva generación de IA en el iPhone

    Apple está preparando un salto clave en inteligencia artificial, y lo hará con ayuda de su rival directo, Google. Gracias a un acuerdo estratégico, la compañía ha obtenido acceso avanzado al modelo Gemini, pero en lugar de usarlo tal cual, está aplicando una técnica innovadora para adaptarlo a sus dispositivos.


    La clave: “destilación” de modelos de IA

    Apple está utilizando un método llamado distillation (destilación) para transformar el potente modelo de Gemini en versiones más pequeñas y eficientes.

    El proceso funciona así:

    • Gemini actúa como “maestro”
    • Los modelos de Apple aprenden su lógica y razonamiento
    • Se crean versiones reducidas especializadas

    El resultado son modelos más ligeros que conservan gran parte de la precisión del original, pero consumen muchos menos recursos.


    IA en el dispositivo, una solución más rápida y privada

    El objetivo de Apple es llevar la inteligencia artificial directamente al iPhone.

    Gracias a estos modelos “mini”:

    • Las funciones de IA se ejecutan sin conexión a internet
    • Las respuestas son más rápidas
    • Se reducen costos de procesamiento
    • Se refuerza la privacidad (los datos no salen del dispositivo)

    Esto encaja con la estrategia de Apple Intelligence, centrada en procesamiento local, algo que es posible gracias a los procesadores de Apple.


    Una Siri completamente nueva

    Estos avances serán fundamentales para la próxima evolución de Siri, que llegará con iOS 27.

    La nueva versión permitirá:

    • Resumir documentos
    • Responder preguntas complejas
    • Ejecutar tareas entre apps
    • Generar contenido
    • Interactuar de forma conversacional

    En esencia, Siri pasará de asistente básico a un verdadero chatbot avanzado.


    Ajustando Gemini al ecosistema Apple

    El proceso no ha sido automático.

    Dado que Gemini fue entrenado principalmente para programación y uso general, Apple ha tenido que:

    • Ajustar respuestas
    • Adaptar el modelo a su ecosistema
    • Optimizarlo para experiencias móviles

    El trabajo está liderado por el equipo interno de modelos fundacionales de Apple.


    Una estrategia clara con menos nube y más procesamiento local

    A diferencia de otras compañías, Apple no busca competir directamente con modelos gigantes en la nube.

    Su enfoque es híbrido:

    • Modelos pequeños en el dispositivo (uso diario)
    • Gemini completo para tareas más pesadas

    Esto permite equilibrar rendimiento, privacidad y capacidad.


    El futuro de la IA en el iPhone

    La apuesta de Apple redefine cómo se implementa la inteligencia artificial en dispositivos móviles.

    En lugar de depender totalmente de servidores, la compañía está construyendo un ecosistema donde la IA vive en el bolsillo del usuario.

    Si esta estrategia funciona, el iPhone podría convertirse en uno de los dispositivos más avanzados en IA, sin comprometer privacidad ni velocidad.

  • Google prepara una app nativa de Gemini para Mac

    Google prepara una app nativa de Gemini para Mac
    Google prepara una app nativa de Gemini para Mac

    Un competidor directo de ChatGPT y Claude

    Google está a punto de dar un paso clave en la carrera de la inteligencia artificial con el desarrollo de una aplicación nativa de Gemini para macOS. Hasta ahora, los usuarios de Mac dependían del navegador para acceder a esta herramienta, pero eso cambiará pronto.

    Gemini llega como app nativa a macOS

    Según reportes recientes, Google ya está probando una versión beta de Gemini para Mac con un grupo reducido de usuarios externos. Se trata de una versión preliminar, enfocada en recopilar feedback antes de su lanzamiento oficial.

    Aunque aún es una versión incompleta, la app ya incluye funcionalidades importantes:

    • Búsquedas web integradas
    • Historial de conversaciones
    • Subida y análisis de documentos
    • Resolución de problemas complejos (incluyendo matemáticas)
    • Generación de contenido: texto, código, imágenes, tablas, gráficos, video y música

    La interfaz sigue la línea de las apps de Gemini en iPhone y iPad, ofreciendo una experiencia familiar dentro del ecosistema de Google.

    “Desktop Intelligence”: IA que ve tu pantalla

    La función más innovadora es “Desktop Intelligence”, una capacidad que permitirá a Gemini acceder al contexto de lo que ocurre en la pantalla del usuario.

    Esto significa que la IA podrá:

    • Analizar contenido visible en tiempo real
    • Extraer información de otras aplicaciones
    • Personalizar respuestas según el contexto

    Este enfoque ya lo hemos visto en soluciones como ChatGPT para Mac o Claude Cowork, pero su llegada a Gemini marca un salto importante en la integración de IA con el sistema operativo.

    Aunque no está confirmado si podrá ejecutar acciones dentro de otras apps, sí abre la puerta a integraciones con herramientas nativas de macOS como Calendario, Recordatorios o Fotos.

    Google vs Apple: una relación en evolución

    El lanzamiento de una app nativa de Gemini también refleja un cambio en la relación entre Google y Apple.

    Apple ha estado presionando para que Google participe más activamente en su ecosistema. Ejemplos recientes incluyen:

    • La app nativa de YouTube para Apple Vision Pro
    • La futura integración de Gemini en Apple Intelligence

    Aunque es lógico que Apple siempre quiere más aplicaciones para sus plataformas, hay que reconocer que Google ha sido un buen socio. Por ejemplo, Google liberó la aplicación Antigravity para desarrollar aplicaciones con la ayuda de la IA el mismo día que lo hizo para Windows y para Linux.

    También es importante destacar que esta app de Gemini será independiente del acuerdo entre ambas compañías para integrar modelos de IA en productos de Apple.

    Gemini podría llegar antes de lo esperado

    A diferencia de la integración profunda con Apple Intelligence, que depende de futuros desarrollos, la app de Gemini podría lanzarse mucho antes, sobre todo teniendo en cuenta que podría reutilizar parte del código de las apps para iPad e iPhone.

    El hecho de que ya esté en pruebas con usuarios externos sugiere que su lanzamiento público podría ser inminente.

    Un paso clave en la guerra de la IA

    Con esta nueva aplicación, Google entra de lleno en la competencia de apps de escritorio de IA, enfrentándose directamente a ChatGPT de OpenAI y Claude de Anthropic.

    Para los usuarios de Mac, esto supone el fin de una limitación importante: pronto podrán acceder a Gemini de forma nativa, más rápida y mejor integrada en su flujo de trabajo diario.

    La batalla por dominar la inteligencia artificial en el escritorio acaba de intensificarse.

  • Stitch da la bienvenidos a la era del “vibe design”

    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas
    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas

    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas

    La forma en que construimos software está viviendo una transformación radical. El 18 de marzo de 2026, Google Labs presentó una renovación profunda de Stitch, su herramienta impulsada por IA capaz de generar interfaces web y móviles a partir de simples instrucciones, imágenes o bocetos.

    Impulsada por los modelos Gemini, esta nueva versión convierte en realidad el concepto de “vibe design”, sacudiendo de paso a toda la industria del diseño.

    El anuncio no tardó en impactar los mercados: las acciones de Figma cayeron entre un 8% y un 9% en una sola sesión. Para muchos, esto señala la llegada de un competidor serio. Pero, ¿qué hace tan disruptivo a Stitch?


    De wireframes al “vibe design”

    Inspirado en el concepto de “vibe coding”, donde los desarrolladores generan código con IA a partir de la descripción de lo que pretenden lograr, Rustin Banks, product manager en Google Labs, introduce ahora el “vibe design”.

    En lugar de empezar desde una hoja en blanco, Stitch permite iniciar un proyecto describiendo un objetivo de negocio, la emoción que se quiere transmitir o incluso subiendo capturas de pantalla como referencia.

    A partir de ahí, la herramienta genera mockups visuales de alta fidelidad junto con código front-end listo para producción, incluyendo HTML/CSS, Tailwind y JSX/React.

    Para soportar este flujo, Google ha creado un lienzo infinito nativo de IA, gestionado por un agente inteligente que comprende toda la evolución del proyecto: sigue el progreso, organiza ideas y facilita iteraciones simultáneas.


    Diseñar con la voz

    En 2026, escribir es opcional. Una de las funciones más llamativas de Stitch es su integración por voz.

    Los usuarios pueden hablar directamente con el lienzo para modificar diseños en tiempo real. El agente actúa como un colaborador activo: puede hacer preguntas, sugerir mejoras o ejecutar comandos como:

    • “Dame tres opciones de menú”
    • “Muestra esta pantalla con distintas paletas de colores”

    Conectando diseño y desarrollo

    Google no quiere que Stitch sea una herramienta aislada. Por eso ha incorporado un servidor MCP (Model Context Protocol), un SDK y “skills” de código abierto.

    Esto permite integrar Stitch con asistentes de desarrollo como Claude Code, Cursor o Gemini CLI. En la práctica, otros agentes pueden controlar Stitch desde un entorno de desarrollo (IDE), generar interfaces y devolver el código automáticamente al flujo de trabajo.

    Es un paso clave hacia un ecosistema donde diseño y programación se fusionan completamente.


    ¿El fin de Figma?

    A pesar de la reacción del mercado, Stitch no sustituye (todavía) a herramientas tradicionales como Figma.

    Hoy por hoy, se posiciona en la fase inicial: ideación y prototipado rápido. Es ideal para transformar ideas en interfaces funcionales en minutos, especialmente útil para startups o pruebas de concepto.

    Sin embargo, diseñadores profesionales señalan que los resultados pueden ser algo genéricos. Para trabajos complejos de UX o sistemas de diseño avanzados, Figma sigue siendo esencial.

    En la práctica, muchos flujos modernos combinan ambos:

    • Stitch para generar rápidamente ideas
    • Figma para refinarlas y llevarlas a producción

    Disponibilidad

    Actualmente en fase beta, Stitch está disponible para usuarios residentes en todos los países donde Gemini está accesible. La interfaz, por ahora, se mantiene en inglés.


    Un nuevo paradigma creativo

    Ya seas diseñador o desarrollador, Stitch demuestra que la distancia entre una idea y un producto funcional nunca había sido tan corta.

    El “vibe design” no solo acelera el proceso creativo: redefine quién puede diseñar software.

  • Meta retrasa su modelo de IA “Avocado” tras problemas de rendimiento

     pesar de las inversiones, Meta sigue teniendo problemas para desarrollar un modelo líder de IA.
    A pesar de las inversiones, Meta sigue teniendo problemas para desarrollar un modelo líder de IA.

    Meta Platforms ha pospuesto el lanzamiento de su esperado modelo de inteligencia artificial de nueva generación, conocido internamente como Avocado (aguacate), después de detectar problemas de rendimiento durante las pruebas internas.

    Inicialmente previsto para mediados de marzo, según un artículo del New York Times, el modelo ahora apunta a una ventana de lanzamiento entre mayo y junio, lo que refleja los desafíos que enfrenta la compañía en la carrera por la inteligencia artificial avanzada.


    Un modelo que no alcanza a los líderes del sector

    Durante las pruebas internas, Avocado fue evaluado en tareas clave como:

    • Razonamiento
    • Programación
    • Redacción

    Los resultados mostraron avances respecto al modelo anterior de Meta, Llama 4, e incluso superó a Gemini 2.5 de Google.

    Sin embargo, el modelo no logró igualar el rendimiento de Gemini 3.0, lo que llevó a Meta a retrasar su lanzamiento mientras intenta mejorar sus capacidades.

    La brecha de rendimiento ha sido lo suficientemente preocupante como para que algunos ejecutivos consideren licenciar temporalmente la tecnología Gemini de Google para impulsar ciertos productos de Meta, una posibilidad que subraya la presión competitiva en el sector.


    Inversiones masivas para alcanzar la “superinteligencia”

    El retraso llega pese a los enormes recursos que Meta está destinando a la inteligencia artificial.

    El CEO Mark Zuckerberg ha señalado que el objetivo de la empresa es alcanzar la “superinteligencia”, un nivel de IA que supere la capacidad humana.

    Para ello, Meta ha proyectado:

    • Entre 115.000 y 135.000 millones de dólares en gasto de capital este año
    • Aproximadamente 600.000 millones de dólares en infraestructura, incluidos centros de datos y chips propios

    Estas cifras casi duplican la inversión de la compañía en el año anterior.


    Reorganización interna y nuevos líderes

    Tras el desempeño decepcionante de Llama 4, Meta también reorganizó su liderazgo en inteligencia artificial.

    En junio, la compañía invirtió 14.300 millones de dólares en la startup Scale AI y nombró a su fundador y CEO, Alexandr Wang, como nuevo Chief AI Officer.

    Wang creó un equipo de élite de unos 100 investigadores llamado TBD Lab, encargado de desarrollar una nueva generación de modelos con nombres inspirados en frutas.

    Entre ellos:

    • Avocado, un modelo centrado en texto
    • Mango, enfocado en generación de imágenes y video
    • Watermelon, un futuro modelo fundacional aún más grande

    El equipo también lanzó recientemente Vibes, una aplicación de video generativo diseñada para competir con herramientas como Sora de OpenAI.


    Tensiones internas y cambios estratégicos

    Además de los desafíos técnicos, Meta enfrenta debates internos sobre el futuro de su estrategia de IA.

    Históricamente, la empresa ha sido una defensora del modelo abierto en inteligencia artificial. Sin embargo, ahora algunos de sus líderes, incluidos Zuckerberg y Wang, han considerado mantener el modelo de Avocado cerrado.

    También han surgido desacuerdos sobre cómo integrar estos nuevos modelos en el negocio publicitario de Meta entre Wang, el director de producto Chris Cox y el director tecnológico Andrew Bosworth.

    Para mejorar la coordinación, la empresa ha creado un nuevo equipo de ingeniería de IA bajo la dirección de Bosworth que trabajará directamente con la división de Wang.


    Meta mantiene el optimismo

    A pesar del retraso, Meta insiste en que el desarrollo sigue avanzando.

    Según el portavoz de la compañía Dave Arnold, el próximo modelo no solo será competitivo, sino que demostrará la rapidez con la que la empresa está avanzando en el desarrollo de nuevas capacidades de IA.

    Mientras el equipo de TBD Lab continúa refinando Avocado para un lanzamiento a finales de primavera, Meta ya está trabajando en la próxima generación de modelos.

  • Google Maps recibe una gran actualización con Gemini: navegación 3D inmersiva y el nuevo “Ask Maps”

    Google sigue integrando la IA de Gemini en todos sus productos. Ahora le toca a Google Maps.
    Google sigue integrando la IA de Gemini en todos sus productos. Ahora le toca a Google Maps.

    Google continúa integrando su inteligencia artificial Gemini en todo su ecosistema, y ahora es el turno de Google Maps. La compañía ha presentado una de las mayores actualizaciones en la historia reciente del servicio, incorporando navegación 3D inmersiva y una nueva herramienta conversacional llamada “Ask Maps”.

    Google describe esta actualización como el cambio más importante en la experiencia de conducción con Maps en más de una década.


    Navegación inmersiva: un rediseño 3D

    Durante años, los conductores han dependido de mapas en 2D para navegar. Con la nueva función Immersive Navigation, Google Maps transforma la ruta en una vista tridimensional mucho más realista.

    La nueva vista 3D de Google Maps

    La tecnología utiliza:

    • Imágenes actualizadas de Google Street View
    • Fotografías aéreas
    • Análisis espacial impulsado por Gemini

    El resultado es un entorno 3D que muestra con precisión:

    • Edificios cercanos
    • Puentes y pasos elevados
    • Puntos de referencia
    • Relieve del terreno

    Para evitar distracciones, la aplicación emplea zoom inteligente y transparencia en los edificios cuando el conductor se aproxima a giros complejos o cambios de carril.


    Más información en la carretera

    La navegación también destaca detalles viales importantes que antes podían pasar desapercibidos, como:

    • Carriles específicos
    • Pasos peatonales
    • Semáforos
    • Señales de parada
    • Medianas y divisores de carril

    Además, las indicaciones de voz ahora suenan más naturales y conversacionales. En lugar de instrucciones rígidas, el asistente puede decir cosas como: “Pasa esta salida y toma la siguiente hacia Illinois 43 South.”

    Este enfoque busca facilitar la conducción especialmente en ciudades desconocidas o durante viajes al extranjero.


    Rutas más inteligentes y llegadas sin estrés

    La nueva inteligencia de Maps también mejora la planificación de rutas.

    Antes de iniciar un viaje, la aplicación puede explicar las ventajas y desventajas de rutas alternativas, por ejemplo:

    • Un trayecto más largo con menos tráfico
    • Uno más rápido pero con peajes

    Mientras conduces, la app envía alertas en tiempo real sobre accidentes, obras y otros incidentes, basándose en la comunidad de usuarios que aporta más de 10 millones de reportes diarios.

    Google también ha mejorado el último tramo del viaje —el llamado “last mile”—. Antes de salir, los usuarios pueden:

    • Previsualizar el destino con Street View
    • Ver la entrada exacta del edificio
    • Recibir recomendaciones de estacionamiento cercano
    • Saber en qué lado de la calle está el destino

    “Ask Maps”: un asistente conversacional para descubrir lugares

    La segunda gran novedad es Ask Maps, una función impulsada por Gemini que permite hacer preguntas complejas al mapa usando lenguaje natural.

    Con esta herramienta, los usuarios pueden hacer consultas como:

    • “¿Hay una cancha pública de tenis con luces para jugar esta noche?”
    • “¿Dónde puedo cargar mi teléfono y tomar café sin hacer fila?”

    En lugar de revisar manualmente cientos de reseñas, Gemini analiza información de más de 300 millones de lugares y opiniones de usuarios para generar respuestas personalizadas y un mapa adaptado a la consulta.

    Además, Ask Maps puede:

    • Usar tu historial de búsquedas y lugares guardados
    • Ayudarte a crear itinerarios de viaje completos
    • Permitir acciones directas como reservar restaurantes o guardar ubicaciones

    Disponibilidad de las nuevas funciones

    Las novedades se están desplegando de forma gradual.

    • Immersive Navigation está empezando a activarse para usuarios en Estados Unidos.
    • En los próximos meses llegará a Android, iOS, Apple CarPlay, Android Auto y vehículos con Google integrado.

    Por su parte, Ask Maps ya está comenzando a llegar a usuarios de Android y iOS en Estados Unidos e India, mientras que la versión para escritorio de Google Maps se espera más adelante.

    Habrá que probar esta actualización, porque a pesar de que no hay duda de que Google dispone de la base de datos más actualizada de mapas e incidentes, la facilidad de uso y el interfaz gráfico de usuario siempre me llevan a usar Apple Maps. Si este rediseño cumple con todo lo prometido, quizás sea tiempo para mi de cambiar a Google Maps.


    Con estas nuevas funciones impulsadas por Gemini, Google busca transformar Google Maps de una simple herramienta de navegación en un asistente inteligente capaz de ayudar a explorar el mundo de forma más visual, intuitiva y conversacional.

  • NotebookLM de Google ahora convierte tus notas en videos cinematográficos totalmente animados

    Logo de Google
    Google presento la nueva funcionalidad de NotebookLM

    Presentaciones espectaculares con NotebookLM

    Tomar apuntes y organizar investigaciones acaba de recibir una mejora visual importante. Google ha lanzado oficialmente “Cinematic Video Overviews” para su servicio de inteligencia artificial NotebookLM, una función que permite transformar documentos escritos en videos animados e inmersivos.

    Diseñada para facilitar el aprendizaje y la comprensión de temas complejos, esta nueva herramienta añade una dimensión mucho más dinámica al estudio personal y a la creación de contenido.


    De simples presentaciones a narrativas visuales completas

    El lanzamiento representa un avance significativo respecto a la función Video Overviews introducida el año pasado.

    En su versión anterior, la herramienta generaba presentaciones básicas narradas con audio generado por IA. Ahora, los Cinematic Video Overviews van mucho más allá de las imágenes estáticas, creando visualizaciones detalladas y animaciones fluidas adaptadas al contenido del usuario.

    El objetivo es convertir notas, documentos o investigaciones en explicaciones visuales con estructura narrativa, facilitando la comprensión de información compleja.


    El papel de la IA: Gemini como “director creativo”

    La tecnología detrás de esta función combina varios modelos avanzados de Google, entre ellos:

    • Gemini 3
    • Nano Banana Pro
    • Veo 3

    Dentro de este sistema, Gemini actúa como un director creativo virtual, tomando cientos de decisiones narrativas y visuales para construir el video final.

    Entre otras tareas, el modelo decide:

    • La estructura narrativa más adecuada
    • El estilo visual
    • El ritmo de la animación
    • La coherencia entre las escenas

    El resultado es un video que no solo resume la información, sino que cuenta una historia basada en los documentos del usuario.


    Parte de la expansión de las herramientas generativas de Google

    La llegada de esta función forma parte de una rápida expansión del ecosistema de medios generativos de Google.

    En los últimos meses, la compañía también ha:

    • Actualizado su modelo de video Veo
    • Ampliado el acceso al generador de video Flow
    • lanzado el nuevo generador de imágenes Nano Banana 2
    • Presentado Project Genie, una herramienta experimental capaz de crear pequeños fragmentos jugables de videojuegos

    Este conjunto de avances muestra el creciente interés de Google por integrar generación de video, imágenes y experiencias interactivas dentro de sus herramientas de IA.


    Disponibilidad y límites de uso

    Los Cinematic Video Overviews ya están disponibles desde hoy tanto en web como en dispositivos móviles, incluyendo la app de NotebookLM disponible en la App Store para iPhone y iPad.

    Por ahora, la función:

    • Solo está disponible en inglés
    • Requiere una suscripción a Google AI Ultra (US$250 al mes)
    • Está limitada a usuarios mayores de 18 años

    Para garantizar la calidad y controlar el uso de recursos, Google establece un límite de hasta 20 videos generados por día.


    Una nueva forma de interactuar con la información

    Con esta actualización, NotebookLM apunta a convertirse en una herramienta más visual y pedagógica, capaz de transformar documentos tradicionales en explicaciones dinámicas.

    Ya sea para estudiantes (con mucho dinero) que desean visualizar material de estudio o profesionales que buscan presentar informes de forma más atractiva, esta función abre una nueva forma de interactuar con la información.

  • Anthropic busca atraer a usuarios de la competencia con nueva funcionalidad

    Claude, el nombre del modelo de Anthropic
    Anthropic busca impulsar el uso de Claude entre los usuarios de ChatGPT y Gemini

    Anthropic está aprovechando el auge de popularidad de Claude para lanzar una ofensiva directa contra plataformas rivales como OpenAI (con ChatGPT) y Google (con Gemini).

    En un movimiento estratégico para reducir al mínimo la dificultad que supone cambiar de ecosistema, la compañía ha habilitado su función de memoria para todos los usuarios gratuitos y ha lanzado una herramienta que permite importar fácilmente el historial contextual desde otros chatbots.

    Cambiar de IA sin empezar desde cero

    Uno de los mayores obstáculos para migrar entre asistentes de IA es la pérdida de contexto. Muchos usuarios invierten meses enseñando a su chatbot preferencias de formato, estilo de escritura, lenguajes de programación o detalles personales. Empezar desde cero en otra plataforma no es imposible, pero puede resultar tedioso.

    Para solucionar esto, Anthropic ha creado una herramienta de importación basada en un prompt predefinido. En lugar de requerir integraciones complejas vía API, el usuario solo necesita copiar y pegar un texto en su chatbot actual. Ese prompt instruye al sistema rival para que genere un “dossier” detallado con todo lo que ha aprendido sobre el usuario, organizado en un bloque de código limpio y estructurado.

    El prompt solicita explícitamente que se conserven:

    • Preferencias de tono, formato y estilo (“siempre haz X”, “nunca hagas Y”).
    • Datos personales como nombre, profesión e intereses.
    • Proyectos en curso, objetivos y temas recurrentes.
    • Herramientas, lenguajes y frameworks preferidos.

    Posteriormente, el usuario copia ese bloque de código y lo pega en el contexto de Claude. A partir de ese momento, Claude utilizará esa información importada y asimilada para continuar trabajando con el usuario, manteniendo la experiencia.

    Más acceso y control de privacidad

    Claude ofrecía la función de memoria a suscriptores de pago desde octubre de 2025, pero su expansión al plan gratuito supone un cambio importante en la estrategia de captación de usuarios de Anthropic.

    La función puede activarse desde el menú “Capabilities” en la configuración de Claude. Además, la compañía ha incorporado controles de privacidad robustos: los usuarios pueden pausar temporalmente la memoria sin borrarla, o eliminar completamente los datos almacenados en los servidores de Anthropic.

    Curiosamente, la empresa señala que el prompt de exportación diseñado para migrar datos puede utilizarse, en teoría, para mover información en cualquier dirección entre plataformas de IA que almacenan memoria de contexto (virtualmente todos).

    Aprovechando el momento

    Esta nueva funcionalidad forma parte de una ofensiva más amplia. Tras la decisión de ChatGPT de mostrar anuncios a usuarios gratuitos, Anthropic reiteró públicamente que Claude se mantendrá libre de publicidad. Posteriormente, desbloqueó para usuarios sin suscripción varias funciones antes restringidas, como la creación de archivos, conectores y habilidades adicionales.

    El impulso también ha sido técnico. Con modelos recientes como Opus 4.6 y Sonnet 4.6, que han demostrado ser muy capaces para realizar tareas complejas de programación, análisis de hojas de cálculo y automatización, entre otras.

    Claude ha ganado terreno entre los usuarios más avanzados, quienes la han estado recomendando. Esto explica en parte que la aplicación superó recientemente a ChatGPT en las listas de descargas gratuitas de la App Store, impulsada por herramientas como Claude Code y Claude Cowork. Claro que la otra parte de la explicación es política.

  • La Administración Trump prohíbe el uso federal de Anthropic y la califica como “riesgo para la cadena de suministro”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento violento sobre los límites éticos de la inteligencia artificial ha llegado a un punto crítico en Washington.

    El presidente Donald Trump ordenó a todas las agencias federales cesar el uso de los productos de Anthropic, la empresa detrás del chatbot Claude. Poco después, el secretario de Defensa Pete Hegseth elevó la disputa al designar oficialmente a la compañía como un “riesgo para la cadena de suministro” para la seguridad nacional.

    La directiva supone, en la práctica, la exclusión de Anthropic del gobierno federal y prohíbe a cualquier contratista, proveedor o socio militar (como por ejemplo Boeing o Northrop Grumman mantener actividades comerciales con la firma. La medida podría afectar a grandes tecnológicas que integran Claude en contratos federales, como Amazon Web Services y Palantir Technologies.

    La administración ha establecido un periodo de transición de seis meses para que agencias y fuerzas armadas migren a otros proveedores.


    El núcleo del conflicto

    Durante semanas, Anthropic y el Pentágono mantuvieron un pulso en torno a los usos permitidos de la tecnología de IA de la empresa. La disputa se originó tras un memorando emitido en enero por Hegseth en el que exigía que los proveedores de IA autorizaran el uso de sus modelos para “todos los fines lícitos”.

    Para Anthropic, esa cláusula traspasa una línea ética fundamental. Según la compañía, esa redacción podría abrir la puerta al uso de sus modelos para vigilancia masiva en territorio nacional o para el desarrollo de armas autónomas letales capaces de identificar y atacar objetivos sin supervisión humana directa.

    El CEO de Anthropic, Dario Amodei, se negó a firmar el acuerdo actualizado. En un comunicado público, afirmó que si bien la empresa no se opone en términos generales a colaborar con el ámbito de defensa, considera que “en un conjunto limitado de casos… la IA puede socavar, en lugar de defender, los valores democráticos”.

    Amodei aseguró que las presiones del gobierno no cambiarán su postura, aunque ofreció colaborar para facilitar una transición ordenada hacia otro proveedor y evitar interrupciones en misiones críticas.

    Según un portavoz de la empresa, las negociaciones finales fracasaron cuando el Pentágono introdujo formulaciones legales que, a su juicio, permitirían ignorar las salvaguardas acordadas. Tras el colapso de las conversaciones, el Departamento de Defensa lanzó un ultimátum y activó la designación de “riesgo para la cadena de suministro”, una etiqueta habitualmente reservada a adversarios extranjeros.


    Una respuesta contundente de la Casa Blanca

    La reacción de la administración fue inmediata y enérgica. En su red social, Trump acusó a Anthropic de intentar imponer sus términos de servicio al Departamento de Defensa por encima de la Constitución, y calificó a la empresa de “radical” e “ideologizada”. También advirtió que, si no coopera durante el periodo de retirada progresiva, podría enfrentar “importantes consecuencias civiles y penales”.

    Hegseth, por su parte, acusó a la compañía de anteponer la ideología de Silicon Valley a las necesidades de las fuerzas armadas y aseguró que la decisión es definitiva.

    Esta respuesta era de esperar por parte de Trump quien suele reaccionar siempre de forma colérica contra quienes se atreven a llevarle la contraria, especialmente si cree que va a poder ganarles fácilmente usando todo el poder del estado.


    Reacciones del sector tecnológico y defensores de derechos civiles

    La medida ha provocado fuertes reacciones en la industria tecnológica y en organizaciones de libertades civiles. Alexandra Givens, presidenta y CEO del Center for Democracy and Technology, advirtió que este tipo de amenazas pueden distorsionar el ecosistema de innovación y expandir peligrosamente el poder ejecutivo.

    Dentro del sector de la IA, numerosas voces han expresado su respaldo a Anthropic. Empleados de empresas competidoras como Google y OpenAI han firmado una carta abierta en solidaridad con la postura ética de la compañía.

    Aunque actores como xAI y OpenAI habrían aceptado las nuevas condiciones del Pentágono, el panorama sigue evolucionando. Según informes, OpenAI estaría buscando renegociar sus términos para incorporar límites éticos similares a los defendidos por Anthropic, y su CEO, Sam Altman, habría indicado internamente que la empresa también está dispuesta a trazar líneas rojas.


    Este enfrentamiento pone de relieve una tensión cada vez más profunda: la colisión entre las políticas de seguridad y ética impulsadas desde Silicon Valley y la visión del aparato militar estadounidense sobre el papel de la inteligencia artificial en el futuro de la guerra.