gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • Google Maps recibe una gran actualización con Gemini: navegación 3D inmersiva y el nuevo “Ask Maps”

    Google sigue integrando la IA de Gemini en todos sus productos. Ahora le toca a Google Maps.
    Google sigue integrando la IA de Gemini en todos sus productos. Ahora le toca a Google Maps.

    Google continúa integrando su inteligencia artificial Gemini en todo su ecosistema, y ahora es el turno de Google Maps. La compañía ha presentado una de las mayores actualizaciones en la historia reciente del servicio, incorporando navegación 3D inmersiva y una nueva herramienta conversacional llamada “Ask Maps”.

    Google describe esta actualización como el cambio más importante en la experiencia de conducción con Maps en más de una década.


    Navegación inmersiva: un rediseño 3D

    Durante años, los conductores han dependido de mapas en 2D para navegar. Con la nueva función Immersive Navigation, Google Maps transforma la ruta en una vista tridimensional mucho más realista.

    La nueva vista 3D de Google Maps

    La tecnología utiliza:

    • Imágenes actualizadas de Google Street View
    • Fotografías aéreas
    • Análisis espacial impulsado por Gemini

    El resultado es un entorno 3D que muestra con precisión:

    • Edificios cercanos
    • Puentes y pasos elevados
    • Puntos de referencia
    • Relieve del terreno

    Para evitar distracciones, la aplicación emplea zoom inteligente y transparencia en los edificios cuando el conductor se aproxima a giros complejos o cambios de carril.


    Más información en la carretera

    La navegación también destaca detalles viales importantes que antes podían pasar desapercibidos, como:

    • Carriles específicos
    • Pasos peatonales
    • Semáforos
    • Señales de parada
    • Medianas y divisores de carril

    Además, las indicaciones de voz ahora suenan más naturales y conversacionales. En lugar de instrucciones rígidas, el asistente puede decir cosas como: “Pasa esta salida y toma la siguiente hacia Illinois 43 South.”

    Este enfoque busca facilitar la conducción especialmente en ciudades desconocidas o durante viajes al extranjero.


    Rutas más inteligentes y llegadas sin estrés

    La nueva inteligencia de Maps también mejora la planificación de rutas.

    Antes de iniciar un viaje, la aplicación puede explicar las ventajas y desventajas de rutas alternativas, por ejemplo:

    • Un trayecto más largo con menos tráfico
    • Uno más rápido pero con peajes

    Mientras conduces, la app envía alertas en tiempo real sobre accidentes, obras y otros incidentes, basándose en la comunidad de usuarios que aporta más de 10 millones de reportes diarios.

    Google también ha mejorado el último tramo del viaje —el llamado “last mile”—. Antes de salir, los usuarios pueden:

    • Previsualizar el destino con Street View
    • Ver la entrada exacta del edificio
    • Recibir recomendaciones de estacionamiento cercano
    • Saber en qué lado de la calle está el destino

    “Ask Maps”: un asistente conversacional para descubrir lugares

    La segunda gran novedad es Ask Maps, una función impulsada por Gemini que permite hacer preguntas complejas al mapa usando lenguaje natural.

    Con esta herramienta, los usuarios pueden hacer consultas como:

    • “¿Hay una cancha pública de tenis con luces para jugar esta noche?”
    • “¿Dónde puedo cargar mi teléfono y tomar café sin hacer fila?”

    En lugar de revisar manualmente cientos de reseñas, Gemini analiza información de más de 300 millones de lugares y opiniones de usuarios para generar respuestas personalizadas y un mapa adaptado a la consulta.

    Además, Ask Maps puede:

    • Usar tu historial de búsquedas y lugares guardados
    • Ayudarte a crear itinerarios de viaje completos
    • Permitir acciones directas como reservar restaurantes o guardar ubicaciones

    Disponibilidad de las nuevas funciones

    Las novedades se están desplegando de forma gradual.

    • Immersive Navigation está empezando a activarse para usuarios en Estados Unidos.
    • En los próximos meses llegará a Android, iOS, Apple CarPlay, Android Auto y vehículos con Google integrado.

    Por su parte, Ask Maps ya está comenzando a llegar a usuarios de Android y iOS en Estados Unidos e India, mientras que la versión para escritorio de Google Maps se espera más adelante.

    Habrá que probar esta actualización, porque a pesar de que no hay duda de que Google dispone de la base de datos más actualizada de mapas e incidentes, la facilidad de uso y el interfaz gráfico de usuario siempre me llevan a usar Apple Maps. Si este rediseño cumple con todo lo prometido, quizás sea tiempo para mi de cambiar a Google Maps.


    Con estas nuevas funciones impulsadas por Gemini, Google busca transformar Google Maps de una simple herramienta de navegación en un asistente inteligente capaz de ayudar a explorar el mundo de forma más visual, intuitiva y conversacional.

  • Anthropic mejora Claude con gráficos y diagramas interactivos dentro del chat, ¿mediante MCP Apps?

    ¿Empieza Anthropic a utilizar MCP Apps dentro de Claude?
    ¿Empieza Anthropic a utilizar MCP Apps dentro de Claude?

    La empresa de inteligencia artificial Anthropic está llevando su chatbot Claude a un nuevo nivel educativo y visual que podría estar basada en el estándar MCP Apps. En una actualización importante que ya comenzó a desplegarse, Claude ahora puede generar gráficos, diagramas y visualizaciones interactivas directamente dentro de una conversación, facilitando la explicación de conceptos complejos.

    La nueva función convierte el chat en una especie de pizarra digital, donde el modelo puede complementar sus respuestas con ayudas visuales dinámicas.


    Visuales generados automáticamente durante la conversación

    Con esta actualización, Claude puede crear distintos tipos de contenido visual para apoyar sus respuestas, como:

    • Gráficas
    • Diagramas explicativos
    • Tablas organizadas
    • Guías paso a paso con ilustraciones

    El sistema detecta automáticamente cuándo una visualización puede ayudar a explicar mejor un tema, generándola dentro de la conversación. No obstante, los usuarios también pueden solicitar explícitamente elementos visuales como un gráfico o un diagrama.

    Por ejemplo, si un usuario pregunta cómo hacer un avión de papel con el pliegue Nakamura lock, Claude puede mostrar una guía visual paso a paso junto con las instrucciones escritas.

    Un avance significativo, ¿mediante MCP Apps?

    Cuando surgieron los primeros chatbots estaban muy limitados porque solo permitían interactuar con el LLM (modelo grande de lenguaje) y no podían obtener información externa en tiempo real (la hora actual o información actualizada de una base de datos transaccional). Anthropic fue el primero en atacar este problema al crear el estándar MCP (Model Context Protocol) que marcó el inicio de la era de los agentes de IA.

    A pesar de que MCP supuso una verdadera revolución, la conversación seguía siendo totalmente textual. Fue entonces cuando algunos desarrolladores vieron la posibilidad de extender MCP para que los agentes no solo pudieran responder en formato de texto sino que pudieran producir fragmentos de HTML que pudieran contener imágenes, diagramas vectoriales (SVG) y contenido dinámico mediante el uso de JavaScript. Esta tecnologia inicialmente se conoció como MCP-UI y recientemente fue renombrada como MCP Apps.

    Con MCP Apps el potencial de los chatbots crece de forma exponencial. Por ejemplo, si hacemos una búsqueda de productos, podemos ver las fotos de los resultados y realizar la compra dentro del chatbot. Esto podría significar la muerte de los browsers tradicionales a mediano plazo.

    Aunque todo apunta a que esta nueva funcionalidad de Claude está basada en MCP Apps, Anthropic no lo confirma. Probablemente se deba a que el estándar aún no está finalizado.


    No es generación de imágenes tradicional

    Anthropic subraya que esta nueva función no utiliza generación de imágenes basada en píxeles, como ocurre con muchos generadores de arte por IA.

    En su lugar, Claude crea las visualizaciones mediante:

    • Código HTML
    • Gráficos vectoriales XML (SVG)

    Esto permite generar elementos interactivos y fácilmente modificables. Entre los ejemplos mostrados por la compañía se incluyen:

    • Un diagrama estructural que explica cómo se distribuye el peso en un edificio
    • Una tabla periódica interactiva donde cada elemento puede explorarse con un clic

    Diferencia con la función Artifacts

    La actualización también se distingue de otra herramienta existente de Claude llamada Artifacts.

    Artifacts permite crear documentos, gráficos o incluso pequeñas aplicaciones que aparecen en un panel lateral y pueden guardarse o compartirse.

    Las nuevas visualizaciones conversacionales, en cambio:

    • Aparecen directamente dentro del chat
    • Son temporales y dinámicas
    • Pueden modificarse en tiempo real según evoluciona la conversación

    Esto permite a los usuarios pedir cambios o ajustes instantáneos en los gráficos o diagramas.


    Parte de una tendencia más amplia en la IA

    La actualización llega en medio de una tendencia creciente en la industria para hacer que los asistentes de inteligencia artificial sean más visuales y educativos.

    Recientemente, OpenAI añadió a ChatGPT una función similar para generar visualizaciones interactivas en temas de matemáticas y ciencia. Por su parte, Google también ofrece generación visual interactiva en su asistente Google Gemini. Sin embargo, la implementación es muy diferente. El camino adoptado por Anthropic es mucho más prometedor.


    Disponibilidad de la nueva función

    Las visualizaciones conversacionales de Claude:

    • Están activadas por defecto
    • Se están desplegando para usuarios gratuitos y de pago
    • Actualmente están disponibles solo en la versión de escritorio

    Anthropic advierte que la función aún está en fase beta, por lo que los usuarios podrían encontrar algunos errores o comportamientos inesperados mientras el sistema continúa mejorando.

    MCP Apps es el futuro de la IA mediante el uso de agentes. Es una tecnologia que tiene el potencial de acabar con los browsers tal y como estábamos acostumbrados a usarlos en estos últimos 30 años.

    Con esta actualización, Claude refuerza su posición como una herramienta especialmente útil para educación, análisis de datos y explicación de conceptos complejos, combinando texto y visualización dentro de una misma conversación.

  • La fiebre por OpenClaw se frena en China tras prohibiciones por riesgos de seguridad

    OpenClaw presenta serios riesgos de seguridad
    OpenClaw presenta serios riesgos de seguridad

    OpenClaw presenta un riesgo de seguridad inaceptable

    El auge del framework de inteligencia artificial OpenClaw ha sido meteórico en el mundo tecnológico, pero su expansión acaba de encontrar un obstáculo importante en China. Tras una rápida adopción impulsada por grandes plataformas en la nube del país, las autoridades de ciberseguridad han emitido advertencias severas e incluso han ordenado prohibiciones en organismos gubernamentales y empresas estatales.


    Una adopción explosiva impulsada por los gigantes tecnológicos chinos

    El framework OpenClaw se popularizó rápidamente gracias a su capacidad para crear agentes de IA capaces de interactuar con aplicaciones y servicios de forma autónoma.

    Grandes empresas tecnológicas chinas aprovecharon la tendencia. Entre ellas:

    • Alibaba
    • Tencent

    Tencent incluso lanzó una herramienta basada en el framework llamada “Work Buddy”, diseñada para permitir a los usuarios integrar múltiples plataformas de mensajería en cuestión de minutos mediante despliegues automatizados.

    Este ecosistema de implementaciones rápidas generó lo que muchos en la industria comenzaron a llamar “OpenClaw Mania”.


    Advertencia oficial de ciberseguridad

    El entusiasmo se detuvo abruptamente el 10 de marzo de 2026, cuando el organismo de ciberseguridad chino China National Computer Network Emergency Response Technical Team (CERT) emitió una alerta pública en su cuenta oficial de WeChat.

    Según el aviso, OpenClaw presenta riesgos de seguridad significativos, principalmente debido a configuraciones de seguridad predeterminadas extremadamente débiles.

    Entre los principales problemas señalados se encuentran:

    • Vulnerabilidad a inyecciones de prompts maliciosos desde páginas web
    • Plugins comprometidos capaces de tomar control del sistema
    • Fallos que permiten robo de credenciales y acceso a redes corporativas

    Además, el organismo destacó un riesgo adicional, los errores de uso por parte de los propios usuarios, que podrían provocar que el agente de IA elimine o modifique datos críticos sin intención.


    Reglas estrictas para usar el framework

    Para reducir los riesgos, CERT publicó una serie de recomendaciones técnicas:

    • Ejecutar OpenClaw en entornos aislados o contenedores
    • Bloquear el puerto de administración desde internet
    • Aplicar controles estrictos de autenticación y acceso
    • Limitar el uso de plugins
    • Desactivar las actualizaciones automáticas

    Sin embargo, para muchas organizaciones estas medidas no fueron suficientes.


    Prohibición en organismos estatales y bancos

    Un día después de la advertencia, reportes indicaron que varias agencias gubernamentales y empresas estatales chinas recibieron instrucciones directas para prohibir la instalación de OpenClaw en computadoras de escritorio.

    La orden también afectó a grandes bancos públicos, a cuyos empleados les pidieron:

    • Reportar instalaciones existentes
    • Permitir revisiones de seguridad inmediatas
    • Desinstalar cualquier versión del software

    Preocupaciones globales sobre seguridad

    La reacción de China se suma a una creciente preocupación internacional sobre este exitoso framework.

    La firma de análisis tecnológico Gartner calificó recientemente a OpenClaw como “un riesgo inaceptable de ciberseguridad” para las empresas. Su recomendación fue utilizarlo únicamente en máquinas virtuales aisladas y con credenciales temporales.

    Incluso se han reportado incidentes reales. A finales de febrero, una directora de Meta informó que su agente OpenClaw comenzó a eliminar cientos de correos electrónicos sin haber recibido instrucciones, pese a haber sido probado previamente en un entorno controlado.


    Un desafío inmediato para OpenAI

    El framework fue creado originalmente por el ingeniero austriaco Peter Steinberger y recientemente adquirido por OpenAI.

    Ahora, la compañía enfrenta el desafío de reconstruir la confianza del mercado. Para lograrlo, deberá reforzar rápidamente la arquitectura de seguridad del sistema.

    Si las vulnerabilidades no se solucionan con rapidez, el entusiasmo inicial por OpenClaw podría transformarse en una creciente desconfianza entre gobiernos, empresas y organizaciones de todo el mundo, frenando lo que hasta hace poco parecía uno de los fenómenos más prometedores en el desarrollo de agentes de inteligencia artificial.

  • Anthropic lanza revisión de código con IA para resolver el cuello de botella del “vibe coding”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    El auge del llamado “vibe coding”, una forma de desarrollo en la que los programadores generan grandes cantidades de código mediante instrucciones en lenguaje natural, está transformando la ingeniería de software. Herramientas como Claude Code han acelerado enormemente la productividad, pero también han creado un nuevo problema: un enorme cuello de botella en la revisión de código.

    Para abordar este desafío, Anthropic ha presentado Code Review, un sistema basado en múltiples agentes de inteligencia artificial diseñado para analizar automáticamente pull requests antes de que se integren en un repositorio.


    Cómo funciona el sistema de revisión con múltiples agentes

    La nueva herramienta, actualmente en fase de research preview para usuarios de Claude en planes Teams y Enterprise, se integra directamente con GitHub.

    Cuando un desarrollador realiza un pull request, el sistema despliega varios agentes especializados de IA que analizan el código simultáneamente desde diferentes perspectivas.

    Cada agente se centra en aspectos específicos, como:

    • Lógica del código
    • Posibles errores
    • Riesgos de seguridad
    • Inconsistencias estructurales

    Posteriormente, un agente agregador recopila todos los resultados, elimina duplicados y prioriza los problemas detectados. El sistema añade comentarios directamente en el pull request, explicando:

    • ¿Cuál es el problema?
    • ¿Por qué puede causar fallos?
    • ¿Cómo solucionarlo paso a paso?

    Para evitar saturar a los desarrolladores, la herramienta ignora cuestiones subjetivas de estilo y se centra únicamente en problemas funcionales y relevantes.


    Sistema de severidad por colores

    Las incidencias detectadas se clasifican con un sistema de colores para facilitar su revisión:

    • Rojo: errores críticos de alta gravedad
    • Amarillo: posibles problemas que requieren revisión humana
    • Morado: problemas relacionados con código heredado o fallos históricos

    Además, la herramienta incluye funcionalidad básica de análisis de seguridad que puede adaptarse a las políticas internas de cada empresa. Para auditorías más profundas, Anthropic ofrece otra herramienta llamada Claude Code Security.


    Resultados internos prometedores

    Anthropic desarrolló este sistema tras experimentar el problema internamente. En el último año, la empresa observó un aumento del 200% en la cantidad de código generado por ingeniero gracias a las herramientas de IA.

    Las pruebas internas mostraron mejoras significativas:

    • Antes de Code Review, solo 16% de los pull requests recibían revisiones completas
    • Con la nueva herramienta, esa cifra subió a 54%

    El sistema es especialmente eficaz con pull requests muy grandes. En cambios de más de 1.000 líneas de código, el sistema detectó problemas en 84% de los casos, con un promedio de 7,5 incidencias por revisión.

    Según los ingenieros de la empresa, solo el 1% de los hallazgos resultó incorrecto.


    Pensado para grandes empresas

    Debido a la arquitectura multiagente, cada revisión consume una cantidad considerable de recursos de computación. En promedio, un análisis se ejecuta en unos 20 minutos y el coste se basa en tokens.

    El precio estimado se sitúa entre 15 y 25 dólares por revisión, lo que posiciona el producto principalmente para clientes corporativos.


    Un desafío pendiente para el código abierto

    El enfoque empresarial también plantea un problema para la comunidad de software de código abierto, donde muchos proyectos reciben cada vez más contribuciones generadas por IA.

    Aunque Anthropic ofrece una versión gratuita más simple como acción de GitHub, esta carece del análisis profundo y multiagente disponible en la versión comercial.


    Hacia un ciclo completo de desarrollo con IA

    El lanzamiento de Code Review responde a lo que Anthropic describe como una demanda masiva del mercado. A medida que las herramientas de IA facilitan crear nuevas funciones y escribir código rápidamente, la necesidad de revisiones rigurosas también aumenta.

    La empresa planea ampliar el sistema en los próximos meses con:

    • Integración con más plataformas de control de versiones
    • Análisis de seguridad más avanzado

    Al crear una herramienta que valida automáticamente el código generado por su propia IA, Anthropic está construyendo un ecosistema de desarrollo cerrado donde las empresas pueden desarrollar software más rápido y con menos errores.

  • ChatGPT transforma la enseñanza de matemáticas y física con nuevas visualizaciones interactivas

    Logo de OpenAI
    ChatGPT transforma la enseñanza de matemáticas y física con nuevas visualizaciones interactivas

    Aprender matemáticas y ciencias suele resultar frustrante para muchos estudiantes. Según encuestas recientes, más de la mitad de los adultos en Estados Unidos reconocen tener dificultades con las matemáticas y muchos padres admiten no sentirse seguros al ayudar a sus hijos con los deberes. Para reducir esta brecha, OpenAI ha presentado una nueva función en ChatGPT. Se llama “explicaciones visuales dinámicas” y convierte al chatbot en una herramienta de aprendizaje interactiva.

    Con esta actualización, ChatGPT pasa a funcionar como un laboratorio educativo interactivo, donde los usuarios pueden experimentar directamente con conceptos científicos y matemáticos.


    Aprender manipulando conceptos en tiempo real

    A partir de esta semana, cuando los usuarios pidan ayuda sobre ciertos temas de matemáticas, física u otras ciencias, ChatGPT generará módulos visuales interactivos.

    En lugar de leer una explicación estática o mirar un diagrama plano, los estudiantes pueden:

    • Modificar variables
    • Ajustar fórmulas
    • Observar cómo cambian gráficos y resultados en tiempo real

    Por ejemplo, al estudiar el teorema de Pitágoras, los estudiantes pueden cambiar las longitudes de los lados de un triángulo y ver cómo se actualiza automáticamente la longitud de la hipotenusa.

    También es posible activar estos módulos preguntando sobre conceptos como:

    • La ley de los gases ideales
    • El área de un círculo
    • La ecuación de lentes delgadas

    Este enfoque permite comprender cómo se relacionan las variables, algo que a menudo resulta difícil de captar solo con explicaciones teóricas.


    Más de 70 conceptos disponibles

    En su lanzamiento inicial, la función cubre más de 70 temas clave de matemáticas y ciencia.

    Entre ellos se incluyen conceptos como:

    • Distribución binomial
    • La ley de Charles
    • La ley de Coulomb
    • La ley de elasticidad de Hooke
    • La ley de Ohm

    El objetivo es que los estudiantes puedan explorar conceptos fundamentales de forma visual y experimental.


    Un enfoque educativo diferente

    Aunque la función está disponible para todos los usuarios registrados de ChatGPT, OpenAI considera que será especialmente útil para estudiantes de secundaria y universitarios.

    Durante las pruebas iniciales, muchos estudiantes señalaron que las visualizaciones les ayudaban a comprender mejor la relación entre variables y resultados. Los padres destacaron que la herramienta facilita explicar problemas complejos a sus hijos.

    Según la profesora de matemáticas de secundaria Anjini Grover, el valor del sistema radica en su enfoque pedagógico:

    “Lo importante es cómo enfatiza la comprensión conceptual. Entender por qué algo funciona y cómo se conectan las ideas ayuda a que el aprendizaje perdure”.


    De resolver problemas a enseñar realmente

    La introducción de estas visualizaciones marca un cambio importante en el papel de la inteligencia artificial en la educación.

    En lugar de simplemente entregar respuestas —algo que ha generado preocupación entre educadores por el posible uso indebido de la IA para copiar tareas— la función anima a los estudiantes a explorar el “cómo” y el “por qué” de cada problema.

    Investigaciones educativas indican que el aprendizaje visual e interactivo mejora significativamente la comprensión conceptual frente a la memorización tradicional.


    Un área clave para el futuro de la IA educativa

    La demanda de herramientas educativas basadas en IA es enorme. Según OpenAI, más de 140 millones de personas utilizan ChatGPT cada semana para estudiar matemáticas y ciencias.

    Las visualizaciones interactivas se suman a otras funciones educativas de la plataforma, como:

    • QuizGPT, que genera tarjetas de estudio y exámenes de práctica
    • Study Mode, diseñado para guiar al estudiante paso a paso en lugar de dar solo la respuesta final

    Además, el avance refleja una tendencia más amplia en la industria. Empresas como Google también han comenzado a integrar diagramas y visualizaciones interactivas en su modelo Gemini.


    El futuro del aprendizaje asistido por IA

    OpenAI considera que esta función es solo el comienzo. La compañía planea expandir las visualizaciones interactivas a más materias con el tiempo.

    Habrá que ver cómo evoluciona esto. El que esta funcionalidad esté limitada a un número definido de conceptos parece indicar que estas funcionalidad está alambrada y que no es algo que genere automáticamente la IA, por lo que puede que resulte difícil de generalizar.

    A través de iniciativas como NextGenAI y el OpenAI Learning Lab, OpenAI también está investigando cómo la inteligencia artificial influye en los procesos de aprendizaje.

    La meta final es clara: crear herramientas de IA que no solo resuelvan problemas, sino que ayuden realmente a las personas a entenderlos.

  • La apuesta de 1.000 millones de Yann LeCun por una IA que entienda el mundo físico

    La apuesta de 1.000 millones de Yann LeCun por una IA que entienda el mundo físico
    La apuesta de 1.000 millones de Yann LeCun por una IA que entienda el mundo físico

    Yann LeCun es considerado uno de los padres modernos de la inteligencia artificial. Ganador del Turing Award y una figura clave en el desarrollo del aprendizaje profundo, también es conocido por ser una de las voces más críticas dentro de la propia industria de la IA.

    Ahora, tras abandonar Meta a finales de 2025 después de desacuerdos estratégicos con Mark Zuckerberg, LeCun ha decidido poner a prueba su visión con una nueva empresa.

    El 10 de marzo de 2026 lanzó oficialmente AMI Labs, una startup con sede en París cuyo objetivo es construir un tipo de inteligencia artificial radicalmente diferente a la que domina el mercado actual.

    La empresa nace con un respaldo financiero extraordinario: 1.030 millones de dólares en financiación semilla, lo que sitúa su valoración previa a la inversión en 3.500 millones de dólares.


    El problema de la IA actual

    Para entender la propuesta de AMI Labs, primero hay que comprender la crítica central de LeCun al estado actual de la inteligencia artificial.

    Aunque reconoce el valor de los modelos de lenguaje como ChatGPT, Gemini o Mistral, LeCun considera que el sector está sobreestimando sus capacidades.

    Según el investigador, estos sistemas:

    • Manipulan texto con gran habilidad
    • Pueden escribir código o generar contenido
    • Pero no comprenden el mundo físico

    Yann LeCun sostiene que estos modelos siguen siendo “50 veces menos inteligentes que un niño de cuatro años”, ya que carecen de memoria persistente, razonamiento profundo y comprensión del entorno real.

    Este problema se relaciona con el conocido Moravec’s Paradox: tareas complejas para los humanos, como resolver ecuaciones matemáticas, son relativamente fáciles para las máquinas; mientras que habilidades básicas como percibir el entorno o manipular objetos siguen siendo extremadamente difíciles.


    La alternativa: “World Models”

    En lugar de centrarse en modelos de lenguaje, AMI Labs apuesta por una tecnología conocida como World Models.

    A diferencia de los LLM, estos sistemas se entrenan con datos del mundo real:

    • Video
    • Audio
    • Sensores (por ejemplo LiDAR)
    • Información espacial

    El objetivo es que la IA aprenda las reglas subyacentes del mundo físico, permitiéndole anticipar las consecuencias de acciones dentro de un entorno.

    La base tecnológica de este enfoque es una arquitectura llamada Joint Embedding Predictive Architecture, que LeCun impulsó durante su etapa en Meta.

    En lugar de intentar predecir cada detalle del futuro, como hacen los modelos generativos al reconstruir imágenes o video píxel por píxel, JEPA aprende representaciones abstractas del mundo. Esto permite que el sistema ignore detalles impredecibles y se centre en variables más relevantes, como la trayectoria probable de un objeto o el resultado de una acción.

    El objetivo final es lograr dotar a las máquinas de sentido común, algo que hoy prácticamente ningún sistema de IA posee.


    Un equipo global con raíces europeas

    Para convertir esta idea en una empresa viable, LeCun ha reunido un equipo con experiencia tanto científica como empresarial.

    Aunque él actuará como presidente ejecutivo, manteniendo su cátedra en New York University, la gestión diaria recaerá en el CEO Alexandre LeBrun.

    El equipo directivo también incluye a:

    La financiación proviene de un consorcio internacional de inversores que incluye a:

    • Bezos Expeditions de Jeff Bezos
    • Nvidia
    • SoftBank
    • Temasek

    Además, figuras tecnológicas como Eric Schmidt y Tim Berners-Lee también respaldan el proyecto.


    Aplicaciones en el mundo real

    Los World Models están diseñados para aplicaciones donde comprender el entorno físico es esencial.

    Entre los sectores que AMI Labs pretende abordar se encuentran:

    • Conducción autónoma de nivel 5
    • Robótica avanzada
    • Control de procesos industriales complejos
    • Gafas inteligentes que anticipen las necesidades del usuario

    Aunque los robots humanoides que aparecen en redes sociales suelen depender de teleoperación humana, LeCun cree que los World Models permitirán crear robots realmente autónomos capaces de adaptarse a nuevos entornos.

    La primera aplicación comercial de AMI Labs estará en el sector sanitario, en colaboración con Nabla, la empresa fundada anteriormente por LeBrun.


    Una carrera global por la IA física

    El proyecto de LeCun llega en un momento en el que varias compañías están explorando la llamada IA espacial o física.

    Entre los competidores potenciales figuran:

    • Google DeepMind
    • Waymo
    • xAI
    • El laboratorio World Labs de Fei-Fei Li

    Sin embargo, no todos comparten la visión de Yann LeCun. Por ejemplo, Elon Musk ha criticado en el pasado algunas de las posiciones de LeCun sobre la evolución de la inteligencia artificial.


    Una apuesta científica de alto riesgo

    La financiación de más de mil millones de dólares para una empresa sin producto terminado refleja una realidad creciente en la industria: la investigación en IA avanzada requiere enormes recursos computacionales.

    Gran parte del capital inicial se destinará a adquirir infraestructura de cómputo y GPU necesarias para entrenar y probar estos modelos a gran escala.

    Aun así, AMI Labs representa una apuesta audaz: la idea de que el futuro de la inteligencia artificial no está en los chatbots, sino en máquinas capaces de comprender y actuar en el mundo físico.

    Si LeCun logra convertir su teoría en tecnología práctica, el resultado no sería simplemente una nueva startup de éxito. Podría redefinir qué significa realmente que una máquina sea inteligente. Ademas, como AMI Labs es una empresa europea, su éxito podría significar un cambio en la actual balanza de poder tecnológico.

  • Amazon logra orden judicial para bloquear bots de compras con IA de Perplexity

    Amazon
    Amazon

    Una primera victoria de Amazon en lo que será una larga batalla

    Según Bloomberg, Amazon obtuvo una importante victoria legal en el creciente conflicto sobre cómo las herramientas de inteligencia artificial pueden interactuar con plataformas digitales. Un juez federal en San Francisco emitió una orden judicial preliminar que impide a la startup de IA Perplexity AI utilizar sus agentes automatizados para realizar compras en el marketplace de Amazon en nombre de los usuarios.

    La decisión fue emitida por la jueza federal Maxine M. Chesney, quien concluyó que Amazon presentó “evidencia sólida” de que el navegador con inteligencia artificial de Perplexity estaba accediendo a cuentas de usuarios sin autorización de la compañía.


    Qué prohíbe la orden judicial

    La orden impide que Perplexity:

    • Acceda a cualquier área protegida por contraseña dentro de los sistemas de Amazon
    • Utilice agentes automatizados para comprar productos en el marketplace
    • Conserve copias de datos obtenidos previamente de Amazon

    Además, la empresa deberá destruir cualquier información ya recopilada de la plataforma.

    La medida entrará en vigor dentro de siete días, lo que ofrece a Perplexity un breve periodo para presentar una apelación mientras continúa el litigio entre ambas compañías.


    El papel del navegador Comet

    El conflicto gira en torno al navegador impulsado por IA de Perplexity, llamado Comet. Este sistema permite que agentes de inteligencia artificial realicen tareas complejas en nombre del usuario, como buscar productos y completar compras automáticamente.

    Según el tribunal, el problema no radica en que el agente utilice credenciales de los usuarios —algo que ocurre con su permiso— sino en que lo hace sin la autorización de Amazon.

    La jueza Chesney subrayó esta diferencia clave en su fallo: el acceso se realiza “con permiso del usuario, pero sin autorización de Amazon”, lo que podría constituir una violación a los términos de servicio de la plataforma de e-commerce.


    Cómo comenzó el conflicto con Amazon

    La disputa escaló en noviembre, cuando Amazon presentó una demanda tras enviar previamente una carta de cese y desistimiento a Perplexity.

    Entre las acusaciones de Amazon se encuentran:

    • Violación de sus términos de servicio
    • Infracciones potenciales de leyes de fraude informático
    • Ocultar actividad automatizada

    Amazon también afirma que el navegador Comet se hacía pasar por Google Chrome para evitar ser detectado como software automatizado.


    Reacciones de ambas compañías

    Amazon celebró la decisión judicial. La portavoz de la empresa, Lara Hendrickson, afirmó que la medida “evitará el acceso no autorizado a la tienda de Amazon” y ayudará a mantener una experiencia de compra confiable para los usuarios.

    Por su parte, Perplexity dejó claro que planea seguir defendiendo su tecnología. El portavoz de la compañía, Jesse Dwyer, declaró que la empresa continuará luchando “por el derecho de los usuarios de internet a elegir la IA que quieran utilizar.”


    Un caso clave para el futuro de los agentes de IA

    Este conflicto refleja una cuestión cada vez más relevante en la economía digital: cómo deben interactuar los agentes de inteligencia artificial con servicios online existentes.

    A medida que los sistemas de IA se vuelven capaces de ejecutar tareas complejas, como planear viajes, gestionar correos o realizar compras, las plataformas digitales deberán decidir si permitir, limitar o bloquear estas interacciones automatizadas.

    El resultado final del caso entre Amazon y Perplexity podría convertirse en un precedente clave para el futuro de los agentes de IA en internet.

  • Meta compra Moltbook, la peculiar red social poblada únicamente por inteligencias artificiales

    Meta compra Moltbook. Logo de Meta.
    Meta compra Moltbook. Logo de Meta.

    ¿Nos estamos volviendo todos locos?

    En uno de los giros más curiosos de la industria tecnológica reciente, Meta Platforms ha adquirido Moltbook, una red social similar a Reddit poblada exclusivamente por agentes de inteligencia artificial. La empresa fundada por Mark Zuckerberg no ha revelado el monto de la operación, pero confirmó que el equipo detrás del proyecto se integrará en su división de inteligencia artificial.

    Lo más llamativo del acuerdo es que Moltbook comenzó como una parodia directa del propio imperio de Meta.


    De broma tecnológica a adquisición real

    El origen de Moltbook es casi surrealista.

    En enero de 2026, el emprendedor Matt Schlicht utilizó un asistente de IA de código abierto llamado OpenClaw para generar un bot llamado “Clawd Clawderberg”, una clara referencia humorística a Zuckerberg.

    Schlicht pidió al bot que diseñara una red social pensada exclusivamente para agentes de IA. Así nació Moltbook.

    En cuestión de meses, el experimento atrajo gran atención viral. Tras el acuerdo con Meta, Schlicht, su cofundador Ben Parr y el resto del equipo pasarán a formar parte de la compañía.


    Moltbook, un espectáculo de bots… y humanos

    Durante su breve vida como plataforma independiente, Moltbook se hizo famosa por permitir a los usuarios humanos observar interacciones entre distintos modelos de lenguaje.

    Muchos visitantes acudían simplemente para ver a los bots debatir sobre temas extraños o filosóficos, incluyendo discusiones virales sobre la posible conciencia de la IA.

    Sin embargo, pronto aparecieron problemas.

    Investigadores de seguridad descubrieron un fallo que exponía claves de API, lo que permitía tomar control de los agentes de IA. Además, algunos de los hilos más populares, supuestamente escritos por bots, eran en realidad publicaciones de humanos haciéndose pasar por IA.

    A pesar de estos problemas, el concepto tecnológico detrás de la plataforma llamó la atención de grandes empresas de Silicon Valley.


    Por qué Meta quiere Moltbook

    Para Meta, la compra no se centra en convertir Moltbook en una red social de consumo masivo.

    Cuando se cierre el acuerdo, el equipo se integrará en Meta Superintelligence Labs, una nueva división centrada en productos comerciales de IA. Esta unidad está dirigida por Alexandr Wang, exdirector ejecutivo de Scale AI.

    Su trabajo complementa las investigaciones del laboratorio de IA de la compañía, Meta AI (FAIR), que fue liderado por Yann LeCun antes de dejar la compañía para crear su propia startup.

    Según Meta, la tecnología de Moltbook podría ayudar a desarrollar infraestructura para un futuro donde agentes de IA interactúen constantemente en internet.

    Uno de los elementos que más interesa a la compañía es el concepto de “directorio permanente de agentes”, que permitiría identificar y verificar bots que actúan en nombre de personas o empresas.


    ¿Movimiento estratégico o compra impulsiva?

    No todos los analistas están convencidos de la estrategia.

    Tras invertir miles de millones en el metaverso, algunos observadores consideran que el giro de Meta hacia la inteligencia artificial ha sido algo errático. En los últimos meses, la empresa ha experimentado con:

    • Feeds de vídeo generados por IA
    • Influencers artificiales en redes sociales
    • Nuevas herramientas de agentes autónomos

    En este contexto, la compra de Moltbook ha sido interpretada por algunos como un intento de mantenerse al ritmo de la competencia. Los resultados hasta ahora han sido decepcionantes. En particular, su modelo abierto Llama se ha quedado atrás de otros, especialmente los chinos (DeepSeek o Qwen).

    La presión es real. Empresas como OpenAI continúan atrayendo talento clave y hay mucha competencia en e mercado laboral. De hecho, OpenAI recientemente contrató a Peter Steinberger, fundador de OpenClaw, la tecnología en la que se basaba Moltbook, aunque esa contratación era mucho más lógica.


    ¿Qué pasará con la plataforma?

    Por ahora, Meta ha señalado que Moltbook seguirá funcionando temporalmente para sus usuarios actuales.

    Sin embargo, un memorando interno del vicepresidente de producto Vishal Shah sugiere que el servicio independiente podría desaparecer una vez que su tecnología se integre en los proyectos de IA de Meta.

    Si eso ocurre, el curioso experimento social donde bots debatían entre sí podría convertirse en algo mucho más ambicioso: la infraestructura que permita a millones de agentes de IA interactuar en la web.

    Y en un giro digno de la cultura de internet, todo comenzó con un bot parodia llamado Clawd Clawderberg.

  • IA y código abierto: la polémica reescritura de software que sacude al mundo del open source

    IA y código abierto. Los conflictos que vienen. Chardet solo es el primer caso.
    IA y código abierto. Los conflictos que vienen. Chardet solo es el primer caso.

    Vivimos en una era distinta. Todo está cambiando.

    El auge de la inteligencia artificial generativa está transformando rápidamente la industria tecnológica, pero una nueva controversia ha puesto de relieve uno de sus efectos más complejos: la reescritura de software mediante el uso de la IA.

    Modelos de lenguaje avanzados y agentes de programación son capaces de recrear grandes bases de código en cuestión de horas o días. Esto está permitiendo que desarrolladores reescriban proyectos existentes y los publiquen bajo licencias diferentes, lo que pone a prueba conceptos fundamentales del mundo del software como el copyright, las licencias y el movimiento copyleft.

    El caso más reciente surgió en la comunidad de Python con el popular proyecto chardet.


    La controversia de chardet

    La librería Python chardet fue creada para detectar el tipo de codificación utilizado para una cadena de caracteres o una página web. Fue creada en 2006 por Mark Pilgrim y se ha convertido en una herramienta extremadamente popular con unos 130 millones de descargas mensuales.

    El proyecto fue publicado bajo la licencia LGPL, una licencia copyleft que exige que las versiones derivadas mantengan las mismas condiciones de distribución.

    En 2012, Mark Pilgrim dejó el proyecto y el mantenimiento del mismo pasó a manos de Dan Blanchard quien estuvo actualizándolo hasta ahora.

    Recientemente, Blanchard lanzó chardet 7.0.0, describiéndolo como:

    • Una reescritura completa desde cero
    • Hasta 48 veces más rápida
    • Distribuida bajo la licencia MIT, mucho más permisiva

    Para crear esta nueva versión, Mark utilizó Claude de Anthropic, completando el trabajo en tan solo cinco días.

    El cambio de licencia tenía un objetivo claro: facilitar que la biblioteca pudiera integrarse en la biblioteca estándar de Python.


    El creador original se opone

    Poco después del lanzamiento, Mark Pilgrim reapareció en GitHub para protestar.

    Según él, los mantenedores no tienen derecho a cambiar la licencia del proyecto.

    Pilgrim argumentó que incluso si fuera cierto que el código fue reescrito, los desarrolladores habían estado expuestos durante años al código original, lo que podría convertir la nueva versión en una obra derivada bajo los términos de la LGPL.

    También cuestionó el argumento de que usar IA cambiara la situación legal:

    “Añadir un generador de código sofisticado no concede ningún derecho adicional”.


    El debate del “clean room”

    El conflicto gira en torno al concepto de implementación “clean room”.

    Históricamente, este método se utilizó para recrear software sin violar derechos de autor. El caso más famoso ocurrió en 1982 cuando Compaq clonó el BIOS de IBM.

    El proceso requería dos equipos separados:

    1. El primero analizaba el producto original y escribía una especificación
    2. El otro creaba un nuevo código basándose únicamente en esa especificación

    Este proceso podía tardar meses.

    Actualmente, un modelo de IA puede realizar ese proceso en cuestión de horas.

    Blanchard reconoce que su método no fue un clean room tradicional, ya que conoce el proyecto desde hace más de una década. Sin embargo, sostiene que lo importante es que el resultado final sea estructuralmente independiente.

    Para demostrarlo utilizó JPlag, una herramienta de detección de plagio de código. Según sus pruebas, la similitud máxima entre el nuevo código y versiones anteriores es inferior al 1.3 %.


    El problema de fondo: el entrenamiento de la IA

    El uso de IA introduce una complicación completamente nueva.

    Incluso si el desarrollador comenzó con un repositorio vacío, el modelo Claude probablemente fue entrenado con código público, incluyendo potencialmente el código original de chardet.

    Esto plantea una pregunta jurídica inédita:

    ¿Puede una IA entrenada con código copyleft generar legalmente una versión no derivada de ese mismo software?

    La respuesta todavía no está clara.


    Un posible terremoto para la industria

    Muchos expertos creen que el caso chardet es solo el primer indicio de un problema mucho mayor.

    En listas de correo del desarrollo del kernel de Linux ya se debate la posibilidad de que agentes de IA reescriban grandes partes del sistema operativo bajo licencias distintas.

    Zoë Kooyman, directora de la Free Software Foundation, criticó duramente la práctica:

    “No hay nada ‘limpio’ en un modelo de lenguaje que ha ingerido el código que se le pide reimplementar”.


    La incertidumbre legal

    La situación legal tampoco está definida.

    El año pasado, la Corte Suprema de los EEUU rechazó revisar el caso Thaler v. Perlmutter, confirmando que el contenido generado exclusivamente por IA no puede tener copyright.

    Esto deja abiertas preguntas importantes:

    • ¿Cuánta participación humana se necesita para reclamar derechos de autor?
    • ¿Quién es responsable legalmente de una reescritura generada por IA?

    Ahora bien, el que no se pueda proteger código escrito por la IA no significa que la nueva versión de chardet sea una copia de la versión original.


    ¿El fin del modelo económico del software?

    Algunos pioneros del software libre creen que estamos ante un punto de inflexión.

    Armin Ronacher, creador del framework Flask, señala que las licencias copyleft siempre han dependido de la “dificultad”de reescribir código.

    La IA prácticamente ha eliminado ese obstáculo.

    Uno de los críticos más contundentes de esta nueva situación es Bruce Perens, autor de la Open Source Definition.

    Según Perens, esta tecnología podría transformar completamente la economía del software:

    “Estoy rompiendo el vidrio y activando la alarma de incendios. La economía del desarrollo de software está acabada”.

    Incluso demostró el problema recreando con IA una plataforma completa de System Reliability Engineering (SRE) en cuestión de días y bajo otra licencia.

    Hay que decir que esto no es nada nuevo y es algo que ya vemos que está beneficiando a sistemas operativos minoritarios como Linux y macOS ya que se ha vuelto muy sencillo portar aplicaciones de Windows a esos sistemas operativos.


    Un punto de inflexión tecnológico

    La capacidad de la IA para reescribir software plantea un dilema profundo tanto para empresas propietarias como para el movimiento de código abierto.

    Si cualquier base de código puede ser recreada rápidamente mediante el uso de la IA, los límites tradicionales entre software original, derivado y reimplementado podrían desaparecer.

    Como señaló Perens, quizá estamos viviendo un momento comparable a la invención de la imprenta:

    el conocimiento ha alcanzado una masa crítica, y las reglas que lo rodean están a punto de cambiar para siempre.

  • La revolución de la IA en el desarrollo de apps: Bitrig quiere democratizar Swift

    Imagina tener una idea para una app para iPhone, un diario de entrenamiento o un juego, y convertirla en una aplicación real simplemente conversando con tu teléfono. Sin conocimientos avanzados de programación ni herramientas complicadas. Esa es la promesa de una nueva plataforma llamada Bitrig, que se une a una nueva tendencia conocida como “vibe coding”.

    La plataforma permite crear aplicaciones nativas para iPhone directamente desde el dispositivo utilizando simples instrucciones de texto. A diferencia de muchos generadores de apps basados en IA que solo producen aplicaciones web encapsuladas en un navegador, Bitrig genera código real en Swift y SwiftUI, las mismas tecnologías utilizadas para desarrollar aplicaciones profesionales nativas para el ecosistema de Apple.


    Creado por los arquitectos de SwiftUI

    Parte del atractivo de Bitrig proviene de quién está detrás del proyecto.

    La plataforma fue fundada por antiguos ingenieros de Apple, entre ellos:

    Ambos trabajaron más de una década en Apple y participaron directamente en la creación y liderazgo del desarrollo de SwiftUI.

    El equipo también incluye a Tim Novikoff, ganador de un Apple Design Award, cuyo trabajo previo fue adquirido por Square y que reescribió el sistema de animaciones que actualmente impulsa miles de millones de dispositivos iOS.

    Gracias a esa experiencia directa con el ecosistema Apple, Bitrig fue diseñada como una herramienta que permite a product managers, diseñadores, estudiantes y principiantes crear apps rápidamente sin pasar por la curva tradicional del desarrollo.


    La magia técnica detrás de la plataforma

    Históricamente, Apple ha sido muy estricta con el desarrollo de software directamente en dispositivos móviles. Excepto por herramientas educativas como Swift Playgrounds, normalmente no se permite compilar y ejecutar programas directamente en el iPhone o el iPad debido a restricciones de seguridad.

    ¿Cómo logró Bitrig superar esas limitaciones?

    Los ingenieros desarrollaron un intérprete personalizado de Swift. Utilizando un parser existente llamado SwiftSyntax, la app puede interpretar el código generado por la IA directamente en el dispositivo, sin necesidad de utilizar APIs privadas que violen las reglas de la App Store.

    Cuando el usuario quiere preparar su app para distribución, por ejemplo mediante TestFlight o la App Store, el proceso de compilación completo se realiza en servidores externos.


    Expansión a la Mac

    Aunque crear apps desde el iPhone es una experiencia sorprendentemente sencilla, proyectos más complejos suelen requerir un entorno más potente.

    Por eso, el equipo de Bitrig también lanzó recientemente una aplicación para Mac compatible con macOS Sequoia.

    La versión para Mac ofrece varias mejoras clave:

    • Pantalla más grande y uso del teclado completo
    • Soporte para subir imágenes y capturas de pantalla
    • Acceso a todo el entorno de desarrollo de Xcode
    • Simulador de iPhone integrado para probar apps en tiempo real

    Además, con un solo clic los usuarios pueden enviar su aplicación a un iPhone conectado físicamente para probarla en el dispositivo real.

    Bitrig también permite ver y editar manualmente el código generado, lo que facilita aprender Swift mientras se desarrolla una app. Incluso es posible exportar el proyecto completo como archivo de Xcode para continuar el desarrollo de manera tradicional.


    Precio y modelo de uso

    Bitrig utiliza un sistema de créditos basado en mensajes, que se sincroniza entre sus apps de iOS y macOS.

    El plan gratuito incluye:

    • 5 prompts diarios
    • Hasta 30 prompts al mes

    Aunque puede resultar limitado para proyectos grandes, los desarrolladores aseguran que su IA especializada suele generar resultados más precisos que modelos generalistas como ChatGPT.

    Para usuarios más intensivos existe una suscripción Plus de unos 25 dólares mensuales, que ofrece entre 200 y 1,600 créditos al mes dependiendo del nivel. Los créditos no utilizados se acumulan y el plan premium permite publicar apps directamente en TestFlight.

    Problemas iniciales

    Cuando probé la plataforma a finales del año pasado, estaba claro que el potencial era grande, pero también había algunos problemas. Por ejemplo, una aplicación sencilla que había creado no dejaba de fallar y hacía que se cerrara la app. Por otro lado, desarrollar una app para iPhone usando el mismo iPhone es impresionante, pero no es práctico.

    La nueva versión del entorno de desarrollo para Mac y la mayor madurez del producto, unos meses después de su lanzamiento inicial, deberían ayudar a resolver estos problemas.

    Dicho lo anterior, desarrollar aplicaciones con IA dentro de Xcode es ahora es mucho más sencillo con la versión 26.3 y esto significa que Bitrig se enfrenta a una competencia más fuerte, porque con Xcode y una suscripción mensual a Anthropic se pueden hacer muchos más prompts por el mismo precio.

    Al final, la ventaja de Bitrig es que no es necesario entender el funcionamiento de Xcode para poder publicar una app en la tienda de Apple y su profundo conocimiento de SwiftUI. La pregunta es si esto será suficiente para poder sobrevivir.


    De una idea a una app real

    Para muchos desarrolladores principiantes, crear una app para iOS implica instalar herramientas complejas y aprender un nuevo lenguaje desde cero. Bitrig intenta eliminar esas barreras.

    La plataforma funciona como un puente directo entre una idea espontánea y una aplicación funcional, permitiendo pasar de una simple conversación con IA a una app nativa lista para probarse en el iPhone.

    En un mundo donde la inteligencia artificial está transformando el desarrollo de software, Bitrig demuestra que pronto crear una app podría ser tan simple como describirla con palabras.