gadgetsgenial.es

Categoría: Anthropic

Noticias acerca de Anthropic y de sus modelos LLM

  • Filtración de Claude Code: cómo un simple error expuso la hoja de ruta secreta de Anthropic

    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos
    Hemos descubierto la hoja de ruta secreta de Anthropic y del próximo modelo avanzado Claude Mythos

    Un simple error

    Incluso las empresas más avanzadas de inteligencia artificial pueden caer por errores humanos básicos. Anthropic lo comprobó recientemente cuando un fallo de empaquetado dejó expuesto el código fuente completo de su herramienta para desarrolladores Claude Code.

    Aunque los modelos de IA no se vieron comprometidos, la filtración reveló detalles fascinantes sobre la hoja de ruta de la compañía para 2026, incluyendo agentes autónomos, una función de “sueño nocturno” y hasta una mascota virtual estilo Tamagotchi dentro del terminal.


    Cómo ocurrió la filtración

    El problema fue detectado por el investigador de seguridad Chaofan Shou y se debió a un error sorprendentemente común: dejar un archivo .map en una versión de producción.

    Cuando Anthropic publicó la versión 2.1.88 del paquete npm @anthropic-ai/claude-code, incluyó accidentalmente un archivo que apuntaba a un archivo ZIP con el código TypeScript original sin ofuscar alojado en Cloudflare R2.

    El resultado:

    • ~1,900 archivos TypeScript
    • Más de 512,000 líneas de código
    • Un archivo comprimido de menos de 10 MB

    Eso sí, los pesos del modelo Claude nunca estuvieron expuestos.

    Anthropic confirmó que fue un error de empaquetado y no una brecha de seguridad ni exposición de datos de usuarios.


    Lo que reveló la hoja de ruta secreta de 2026

    Al explorar el código, la comunidad descubrió múltiples proyectos en desarrollo:

    Project ULTRAPLAN

    Un sistema de tareas autónomas en segundo plano que permitirá a Claude trabajar hasta 30 minutos sin supervisión, generando planes de acción detallados para aprobación humana.

    Project KAIROS (Always-On)

    Claude evolucionaría hacia un agente persistente con memoria a largo plazo.

    Incluye una función sorprendente: “Nightly Dreaming”, donde la IA organiza y limpia sus registros mientras el usuario duerme.

    Coordinator Mode

    Claude podrá clonarse en múltiples sub-agentes que trabajarán en paralelo bajo la supervisión de un “Master Claude”.

    Un nuevo modelo secreto

    El código menciona un modelo interno en pruebas llamado Capybara.

    Telemetría de frustración

    La herramienta registrará señales de frustración del usuario, como insultos al terminal o repetición del comando “continue”. Como usuario de Claude, puedo anticipar que esa medición va a reportar resultados bastante altos…


    Project BUDDY: la mascota virtual en la terminal

    La sorpresa más curiosa del leak fue Project BUDDY, una mascota virtual integrada en la CLI.

    Características:

    • Se genera automáticamente al “nacer” según el ID del usuario
    • Puede adoptar 18 formas (pato, robot, fantasma, axolote, capibara…)
    • Tiene estadísticas propias de un RPG: paciencia, sabiduría y caos
    • Incluye accesorios raros y variantes “shiny” estilo Pokémon

    Inicialmente planeado como broma del April Fool’s, podría convertirse en una función permanente.


    Consecuencias y lecciones para la industria

    El código filtrado fue rápidamente archivado en GitHub y llegó a tener más de 41,500 forks antes de ser retirado por motivos legales.

    El incidente deja una lección clara para toda la industria: incluso los equipos más avanzados pueden fallar en sus pipelines de despliegue.

    Un simple error en .npmignore o package.json puede exponer proyectos completos.

    Para Anthropic, la sorpresa se perdió. Para los desarrolladores, fue una clase magistral sobre arquitectura CLI y sobre lo peligrosos que pueden ser los errores de empaquetado.

  • Se filtra Claude Mythos, el nuevo modelo de Anthropic

    Se filtra Claude Mythos, el nuevo modelo de Anthropic
    Se filtra Claude Mythos, el nuevo modelo de Anthropic

    El nuevo modelo de Anthropic sacude el mundo de la ciberseguridad

    Una filtración masiva reveló accidentalmente uno de los proyectos más secretos de Anthropic, un nuevo modelo de inteligencia artificial llamado Claude Mythos. Descrito internamente como un “salto de generación” en capacidades de IA, su potencial ofensivo en ciberseguridad ya provocó impacto en la industria tecnológica y en los mercados financieros.

    La filtración ocurrió el 26 de marzo de 2026 debido a un simple error de configuración.


    La filtración de 3,000 archivos

    Investigadores de seguridad descubrieron un repositorio público sin protección con casi 3,000 documentos internos de la compañía.

    El problema se originó en el sistema CMS de Anthropic. Los archivos no publicados tenían URLs públicas por defecto si no se restringían manualmente.

    Entre los documentos expuestos había:

    • Borradores de blog corporativo
    • Estrategias internas
    • Detalles de eventos exclusivos con el CEO Dario Amodei

    Tras ser alertada, la empresa confirmó el modelo y atribuyó la filtración a un error humano.


    Mythos: el nuevo nivel premium de Claude

    Actualmente, la familia Claude se divide en:

    • Haiku (ligero)
    • Sonnet (equilibrado)
    • Opus (gama alta)

    La filtración revela que Mythos, cuyo nombre interno es Capybara, será el cuarto nivel premium.

    Según los documentos:

    • Es más grande e inteligente que cualquier modelo previo
    • Supera ampliamente a Claude Opus 4.6
    • Mejora los niveles de programación, razonamiento académico y ciberseguridad

    Esto es relevante porque Opus 4.6 ya había superado a OpenAI en benchmarks de programación.

    El problema es que Mythos es extremadamente caro de ejecutar, por lo que aún está siendo optimizado antes de su lanzamiento masivo.


    La IA que podría cambiar la ciberseguridad

    El punto más preocupante del modelo es su capacidad ofensiva.

    Anthropic afirma que Mythos está:

    • “Muy por delante de cualquier otro modelo en capacidades cyber”
    • Capaz de encontrar y explotar vulnerabilidades a gran velocidad

    La empresa ya tenía antecedentes preocupantes:

    • Claude Opus 4.6 detectó vulnerabilidades zero-day
    • Claude Code fue usado en un ataque estatal chino contra ~30 organizaciones
    • En pruebas internas, Claude se convirtió en fábrica de malware en 8 horas

    Mythos escala estas capacidades a un nuevo nivel.


    Impacto inmediato en la bolsa

    La noticia generó pánico en el sector de ciberseguridad.

    Acciones de empresas como:

    • Palo Alto Networks
    • CrowdStrike
    • Fortinet

    cayeron entre 4% y 6%, arrastrando al ETF tecnológico IGV.

    El temor es que una IA capaz de romper defensas vuelva obsoletas muchas de las soluciones actuales.


    Lanzamiento limitado y enfoque defensivo

    Para reducir riesgos, Anthropic seguirá una estrategia que restringirá inicialmente el acceso al nuevo modelo:

    • Acceso inicial solo para empresas de defensa cibernética
    • Disponible vía API para clientes seleccionados
    • Objetivo: dar ventaja a los “white hat” antes, para intentar evitar ataques masivos

    Esta estrategia replica la usada por OpenAI con GPT-5.3-Codex y su programa de acceso para defensa.


    Un momento clave para Anthropic

    La filtración llega en un momento crucial:

    • Dominio creciente en el mercado B2B y desarrollo
    • Rumores de una próxima salida a bolsa (IPO)
    • Problemas recientes de caídas en su plataforma

    Claude Mythos podría aumentar enormemente su valoración en bolsa, pero también pone en duda si su infraestructura y seguridad están listas para la próxima generación de IA, lo cual es irónico dado que es justamente la fortaleza de su nuevo modelo.

  • Apple abrirá Siri a chatbots de IA rivales en iOS 27

    Apple abrirá Siri a chatbots de IA rivales en iOS 27
    Apple abrirá Siri a chatbots de IA rivales en iOS 27

    El fin de la exclusividad de ChatGPT

    Según Marc Gurman, de Bloomberg, Apple prepara uno de los cambios más importantes en la historia de Siri. Durante la Worldwide Developers Conference(WWDC) del 8 de junio de 2026, la compañía presentaría iOS 27, una actualización que permitirá integrar chatbots de IA de terceros directamente con el asistente.

    Este movimiento marcaría el fin de la exclusividad de ChatGPT dentro del ecosistema Apple y abriría la puerta a una nueva era de inteligencia artificial en iPhone, iPad y Mac.


    Siri será compatible con múltiples IA

    Desde la llegada de Apple Intelligence en iOS 18, OpenAI disfrutaba de una integración exclusiva de ChatGPT con Siri para resolver consultas complejas.

    Sin embargo, reportes recientes indican que Apple abandonará este modelo cerrado para adoptar un enfoque más abierto. Con iOS 27, los usuarios podrán conectar Siri con múltiples servicios de IA, entre ellos:

    El objetivo es crear un ecosistema competitivo donde el usuario elija qué IA usar según sus necesidades.


    Así funcionará el nuevo sistema “Extensions”

    Apple implementará un nuevo sistema basado en APIs llamado Extensions, disponible en:

    • iOS 27
    • iPadOS 27
    • macOS 27

    Si el usuario tiene instalada una app de IA compatible, podrá asignarla a tareas específicas dentro de Siri. Por ejemplo:

    • Usar Claude para programación
    • Usar otra IA para búsquedas web
    • Combinar varios asistentes según el tipo de consulta

    Todo se gestionará desde un nuevo menú en Configuración dentro de Apple Intelligence y Siri. Desde ahí, Apple ofrecerá enlaces directos a la App Store para descargar chatbots compatibles.

    Este cambio también abre una nueva fuente de ingresos para Apple mediante suscripciones de IA dentro de la App Store.


    El fin de la exclusividad con OpenAI

    El nuevo modelo pone fin a la relación exclusiva entre Apple y OpenAI.

    Este cambio también llega tras la presión del sector. La startup xAI de Elon Musk incluso presentó una demanda contra Apple y OpenAI, acusándolos de intentar dominar el mercado de IA.

    Con iOS 27, Apple permitirá que cualquier desarrollador integre su chatbot con Siri, siempre que cumpla con las nuevas APIs.


    La estrategia doble de Apple en inteligencia artificial

    Abrir Siri no significa que Apple abandone su propia IA.

    Los dispositivos seguirán usando modelos propios como sistema predeterminado mediante:

    • Procesamiento en el dispositivo
    • Private Cloud Compute para privacidad

    Además, Apple mantiene una relación estratégica con Google. Aunque Gemini podrá integrarse como app externa, Apple también usaría versiones optimizadas de sus modelos para mejorar sus propios sistemas de Apple Intelligence.

    Entre las funciones futuras se esperan:

    • Mayor control dentro de apps
    • Capacidades avanzadas de “Personal Intelligence”
    • Una posible app independiente de Siri con interfaz tipo chatbot

    Un despliegue gradual

    Apple ya comenzó este camino con iOS 26.4, que abrió CarPlay a chatbots de terceros.

    La estrategia de iOS 27 muestra el nuevo enfoque de Apple, mantener el control del ecosistema mientras permite a los usuarios elegir las mejores herramientas de IA disponibles.

    La guerra de los asistentes inteligentes en el iPhone acaba de comenzar.

  • Anthropic lanza ‘Claude Dispatch’

    Anthropic lanza ‘Claude Dispatch’ para poder controlar la IA de escritorio desde el celular
    Anthropic lanza ‘Claude Dispatch’ para poder controlar la IA de escritorio desde el celular

    Controla tu IA de escritorio desde el celular

    Imagina salir de tu escritorio, asignar una tarea compleja a tu computadora desde tu teléfono y volver horas después para encontrar el trabajo completamente terminado. Anthropic convirtió esta idea en realidad con el lanzamiento de Claude Dispatch, una nueva función que permite controlar tareas de IA en el escritorio directamente desde dispositivos móviles.

    Presentado como una versión preliminar dentro del entorno Claude Cowork, Dispatch supone un paso importante hacia un ecosistema de inteligencia artificial más autónomo y siempre activo. Funciona como la contraparte accesible para el público general de Claude Code Remote, una herramienta orientada a desarrolladores lanzada anteriormente.

    Una sola conversación persistente

    La funciónalidad central de Claude Dispatch está basada en su sincronización continua. En lugar de abrir sesiones independientes en distintos dispositivos, la herramienta mantiene una única conversación persistente entre el celular y la computadora de escritorio.

    Esto significa que puedes iniciar una tarea desde tu smartphone, por ejemplo durante el trayecto al trabajo, y retomarla más tarde en tu computadora exactamente donde la dejaste, con todo el contexto intacto.

    Además, como Dispatch aprovecha el entorno local de tu equipo, todo lo que Claude puede hacer en tu escritorio, como acceder a archivos, usar el navegador o interactuar con aplicaciones instaladas, también está disponible de forma remota.

    Casos de uso en el mundo real para Claude Dispatch

    Las posibilidades son amplias y prácticas:

    • Solicitar a la IA que analice una hoja de cálculo local y genere un informe.
    • Buscar información en correos electrónicos o mensajes de Slack para crear un resumen.
    • Construir presentaciones a partir de archivos almacenados en Google Drive.
    • Organizar automáticamente carpetas y documentos en el disco duro.

    Los resultados pueden consultarse directamente desde el móvil o encontrarse guardados en el ordenador.

    Configuración y requisitos

    El proceso de configuración es sencillo: basta con tener conexión a internet y las versiones más recientes de las apps de Claude en escritorio y móvil. A través de un código QR, ambos dispositivos se vinculan en segundos.

    Durante la instalación, el usuario debe autorizar el acceso a archivos locales y configurar el equipo para que permanezca activo. Todo el procesamiento se realiza en el propio ordenador, dentro de un entorno seguro.

    Limitaciones actuales de Claude Dispatch

    Al tratarse de una versión preliminar, Dispatch presenta algunas restricciones importantes:

    • La computadora debe estar encendida: si entra en reposo, la IA no puede ejecutar tareas.
    • Sin notificaciones: Claude Dispatch no avisa automáticamente cuando un trabajo ha terminado.
    • Un solo hilo de conversación: no permite separar tareas en proyectos independientes.
    • Modo reactivo: solo responde a instrucciones directas; no ejecuta tareas programadas ni actúa de forma proactiva.

    La seguridad, un punto crítico

    El acceso remoto a un entorno local plantea riesgos significativos. Al utilizar Dispatch, el usuario otorga a la IA la capacidad de ejecutar acciones reales en su computadora, como leer, mover o eliminar archivos.

    Anthropic advierte que es fundamental comprender bien los permisos concedidos y limitar el acceso a entornos de confianza. Un comando malinterpretado o una interacción con contenido malicioso podría desencadenar acciones no deseadas.

    Disponibilidad de Claude Dispatch

    El producto se está desplegando de forma gradual. Por ahora, está disponible como un adelanto para suscriptores del plan Max, con una expansión prevista hacia usuarios Pro en las próximas semanas.


    En conjunto, Claude Dispatch ofrece una visión clara del futuro de la productividad, un entorno donde la potencia de tu computadora ya no está limitada a tu escritorio, sino que te acompaña en el bolsillo.

  • Anthropic mejora Claude con gráficos y diagramas interactivos dentro del chat, ¿mediante MCP Apps?

    ¿Empieza Anthropic a utilizar MCP Apps dentro de Claude?
    ¿Empieza Anthropic a utilizar MCP Apps dentro de Claude?

    La empresa de inteligencia artificial Anthropic está llevando su chatbot Claude a un nuevo nivel educativo y visual que podría estar basada en el estándar MCP Apps. En una actualización importante que ya comenzó a desplegarse, Claude ahora puede generar gráficos, diagramas y visualizaciones interactivas directamente dentro de una conversación, facilitando la explicación de conceptos complejos.

    La nueva función convierte el chat en una especie de pizarra digital, donde el modelo puede complementar sus respuestas con ayudas visuales dinámicas.


    Visuales generados automáticamente durante la conversación

    Con esta actualización, Claude puede crear distintos tipos de contenido visual para apoyar sus respuestas, como:

    • Gráficas
    • Diagramas explicativos
    • Tablas organizadas
    • Guías paso a paso con ilustraciones

    El sistema detecta automáticamente cuándo una visualización puede ayudar a explicar mejor un tema, generándola dentro de la conversación. No obstante, los usuarios también pueden solicitar explícitamente elementos visuales como un gráfico o un diagrama.

    Por ejemplo, si un usuario pregunta cómo hacer un avión de papel con el pliegue Nakamura lock, Claude puede mostrar una guía visual paso a paso junto con las instrucciones escritas.

    Un avance significativo, ¿mediante MCP Apps?

    Cuando surgieron los primeros chatbots estaban muy limitados porque solo permitían interactuar con el LLM (modelo grande de lenguaje) y no podían obtener información externa en tiempo real (la hora actual o información actualizada de una base de datos transaccional). Anthropic fue el primero en atacar este problema al crear el estándar MCP (Model Context Protocol) que marcó el inicio de la era de los agentes de IA.

    A pesar de que MCP supuso una verdadera revolución, la conversación seguía siendo totalmente textual. Fue entonces cuando algunos desarrolladores vieron la posibilidad de extender MCP para que los agentes no solo pudieran responder en formato de texto sino que pudieran producir fragmentos de HTML que pudieran contener imágenes, diagramas vectoriales (SVG) y contenido dinámico mediante el uso de JavaScript. Esta tecnologia inicialmente se conoció como MCP-UI y recientemente fue renombrada como MCP Apps.

    Con MCP Apps el potencial de los chatbots crece de forma exponencial. Por ejemplo, si hacemos una búsqueda de productos, podemos ver las fotos de los resultados y realizar la compra dentro del chatbot. Esto podría significar la muerte de los browsers tradicionales a mediano plazo.

    Aunque todo apunta a que esta nueva funcionalidad de Claude está basada en MCP Apps, Anthropic no lo confirma. Probablemente se deba a que el estándar aún no está finalizado.


    No es generación de imágenes tradicional

    Anthropic subraya que esta nueva función no utiliza generación de imágenes basada en píxeles, como ocurre con muchos generadores de arte por IA.

    En su lugar, Claude crea las visualizaciones mediante:

    • Código HTML
    • Gráficos vectoriales XML (SVG)

    Esto permite generar elementos interactivos y fácilmente modificables. Entre los ejemplos mostrados por la compañía se incluyen:

    • Un diagrama estructural que explica cómo se distribuye el peso en un edificio
    • Una tabla periódica interactiva donde cada elemento puede explorarse con un clic

    Diferencia con la función Artifacts

    La actualización también se distingue de otra herramienta existente de Claude llamada Artifacts.

    Artifacts permite crear documentos, gráficos o incluso pequeñas aplicaciones que aparecen en un panel lateral y pueden guardarse o compartirse.

    Las nuevas visualizaciones conversacionales, en cambio:

    • Aparecen directamente dentro del chat
    • Son temporales y dinámicas
    • Pueden modificarse en tiempo real según evoluciona la conversación

    Esto permite a los usuarios pedir cambios o ajustes instantáneos en los gráficos o diagramas.


    Parte de una tendencia más amplia en la IA

    La actualización llega en medio de una tendencia creciente en la industria para hacer que los asistentes de inteligencia artificial sean más visuales y educativos.

    Recientemente, OpenAI añadió a ChatGPT una función similar para generar visualizaciones interactivas en temas de matemáticas y ciencia. Por su parte, Google también ofrece generación visual interactiva en su asistente Google Gemini. Sin embargo, la implementación es muy diferente. El camino adoptado por Anthropic es mucho más prometedor.


    Disponibilidad de la nueva función

    Las visualizaciones conversacionales de Claude:

    • Están activadas por defecto
    • Se están desplegando para usuarios gratuitos y de pago
    • Actualmente están disponibles solo en la versión de escritorio

    Anthropic advierte que la función aún está en fase beta, por lo que los usuarios podrían encontrar algunos errores o comportamientos inesperados mientras el sistema continúa mejorando.

    MCP Apps es el futuro de la IA mediante el uso de agentes. Es una tecnologia que tiene el potencial de acabar con los browsers tal y como estábamos acostumbrados a usarlos en estos últimos 30 años.

    Con esta actualización, Claude refuerza su posición como una herramienta especialmente útil para educación, análisis de datos y explicación de conceptos complejos, combinando texto y visualización dentro de una misma conversación.

  • Anthropic lanza revisión de código con IA para resolver el cuello de botella del “vibe coding”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    El auge del llamado “vibe coding”, una forma de desarrollo en la que los programadores generan grandes cantidades de código mediante instrucciones en lenguaje natural, está transformando la ingeniería de software. Herramientas como Claude Code han acelerado enormemente la productividad, pero también han creado un nuevo problema: un enorme cuello de botella en la revisión de código.

    Para abordar este desafío, Anthropic ha presentado Code Review, un sistema basado en múltiples agentes de inteligencia artificial diseñado para analizar automáticamente pull requests antes de que se integren en un repositorio.


    Cómo funciona el sistema de revisión con múltiples agentes

    La nueva herramienta, actualmente en fase de research preview para usuarios de Claude en planes Teams y Enterprise, se integra directamente con GitHub.

    Cuando un desarrollador realiza un pull request, el sistema despliega varios agentes especializados de IA que analizan el código simultáneamente desde diferentes perspectivas.

    Cada agente se centra en aspectos específicos, como:

    • Lógica del código
    • Posibles errores
    • Riesgos de seguridad
    • Inconsistencias estructurales

    Posteriormente, un agente agregador recopila todos los resultados, elimina duplicados y prioriza los problemas detectados. El sistema añade comentarios directamente en el pull request, explicando:

    • ¿Cuál es el problema?
    • ¿Por qué puede causar fallos?
    • ¿Cómo solucionarlo paso a paso?

    Para evitar saturar a los desarrolladores, la herramienta ignora cuestiones subjetivas de estilo y se centra únicamente en problemas funcionales y relevantes.


    Sistema de severidad por colores

    Las incidencias detectadas se clasifican con un sistema de colores para facilitar su revisión:

    • Rojo: errores críticos de alta gravedad
    • Amarillo: posibles problemas que requieren revisión humana
    • Morado: problemas relacionados con código heredado o fallos históricos

    Además, la herramienta incluye funcionalidad básica de análisis de seguridad que puede adaptarse a las políticas internas de cada empresa. Para auditorías más profundas, Anthropic ofrece otra herramienta llamada Claude Code Security.


    Resultados internos prometedores

    Anthropic desarrolló este sistema tras experimentar el problema internamente. En el último año, la empresa observó un aumento del 200% en la cantidad de código generado por ingeniero gracias a las herramientas de IA.

    Las pruebas internas mostraron mejoras significativas:

    • Antes de Code Review, solo 16% de los pull requests recibían revisiones completas
    • Con la nueva herramienta, esa cifra subió a 54%

    El sistema es especialmente eficaz con pull requests muy grandes. En cambios de más de 1.000 líneas de código, el sistema detectó problemas en 84% de los casos, con un promedio de 7,5 incidencias por revisión.

    Según los ingenieros de la empresa, solo el 1% de los hallazgos resultó incorrecto.


    Pensado para grandes empresas

    Debido a la arquitectura multiagente, cada revisión consume una cantidad considerable de recursos de computación. En promedio, un análisis se ejecuta en unos 20 minutos y el coste se basa en tokens.

    El precio estimado se sitúa entre 15 y 25 dólares por revisión, lo que posiciona el producto principalmente para clientes corporativos.


    Un desafío pendiente para el código abierto

    El enfoque empresarial también plantea un problema para la comunidad de software de código abierto, donde muchos proyectos reciben cada vez más contribuciones generadas por IA.

    Aunque Anthropic ofrece una versión gratuita más simple como acción de GitHub, esta carece del análisis profundo y multiagente disponible en la versión comercial.


    Hacia un ciclo completo de desarrollo con IA

    El lanzamiento de Code Review responde a lo que Anthropic describe como una demanda masiva del mercado. A medida que las herramientas de IA facilitan crear nuevas funciones y escribir código rápidamente, la necesidad de revisiones rigurosas también aumenta.

    La empresa planea ampliar el sistema en los próximos meses con:

    • Integración con más plataformas de control de versiones
    • Análisis de seguridad más avanzado

    Al crear una herramienta que valida automáticamente el código generado por su propia IA, Anthropic está construyendo un ecosistema de desarrollo cerrado donde las empresas pueden desarrollar software más rápido y con menos errores.

  • IA y código abierto: la polémica reescritura de software que sacude al mundo del open source

    IA y código abierto. Los conflictos que vienen. Chardet solo es el primer caso.
    IA y código abierto. Los conflictos que vienen. Chardet solo es el primer caso.

    Vivimos en una era distinta. Todo está cambiando.

    El auge de la inteligencia artificial generativa está transformando rápidamente la industria tecnológica, pero una nueva controversia ha puesto de relieve uno de sus efectos más complejos: la reescritura de software mediante el uso de la IA.

    Modelos de lenguaje avanzados y agentes de programación son capaces de recrear grandes bases de código en cuestión de horas o días. Esto está permitiendo que desarrolladores reescriban proyectos existentes y los publiquen bajo licencias diferentes, lo que pone a prueba conceptos fundamentales del mundo del software como el copyright, las licencias y el movimiento copyleft.

    El caso más reciente surgió en la comunidad de Python con el popular proyecto chardet.


    La controversia de chardet

    La librería Python chardet fue creada para detectar el tipo de codificación utilizado para una cadena de caracteres o una página web. Fue creada en 2006 por Mark Pilgrim y se ha convertido en una herramienta extremadamente popular con unos 130 millones de descargas mensuales.

    El proyecto fue publicado bajo la licencia LGPL, una licencia copyleft que exige que las versiones derivadas mantengan las mismas condiciones de distribución.

    En 2012, Mark Pilgrim dejó el proyecto y el mantenimiento del mismo pasó a manos de Dan Blanchard quien estuvo actualizándolo hasta ahora.

    Recientemente, Blanchard lanzó chardet 7.0.0, describiéndolo como:

    • Una reescritura completa desde cero
    • Hasta 48 veces más rápida
    • Distribuida bajo la licencia MIT, mucho más permisiva

    Para crear esta nueva versión, Mark utilizó Claude de Anthropic, completando el trabajo en tan solo cinco días.

    El cambio de licencia tenía un objetivo claro: facilitar que la biblioteca pudiera integrarse en la biblioteca estándar de Python.


    El creador original se opone

    Poco después del lanzamiento, Mark Pilgrim reapareció en GitHub para protestar.

    Según él, los mantenedores no tienen derecho a cambiar la licencia del proyecto.

    Pilgrim argumentó que incluso si fuera cierto que el código fue reescrito, los desarrolladores habían estado expuestos durante años al código original, lo que podría convertir la nueva versión en una obra derivada bajo los términos de la LGPL.

    También cuestionó el argumento de que usar IA cambiara la situación legal:

    “Añadir un generador de código sofisticado no concede ningún derecho adicional”.


    El debate del “clean room”

    El conflicto gira en torno al concepto de implementación “clean room”.

    Históricamente, este método se utilizó para recrear software sin violar derechos de autor. El caso más famoso ocurrió en 1982 cuando Compaq clonó el BIOS de IBM.

    El proceso requería dos equipos separados:

    1. El primero analizaba el producto original y escribía una especificación
    2. El otro creaba un nuevo código basándose únicamente en esa especificación

    Este proceso podía tardar meses.

    Actualmente, un modelo de IA puede realizar ese proceso en cuestión de horas.

    Blanchard reconoce que su método no fue un clean room tradicional, ya que conoce el proyecto desde hace más de una década. Sin embargo, sostiene que lo importante es que el resultado final sea estructuralmente independiente.

    Para demostrarlo utilizó JPlag, una herramienta de detección de plagio de código. Según sus pruebas, la similitud máxima entre el nuevo código y versiones anteriores es inferior al 1.3 %.


    El problema de fondo: el entrenamiento de la IA

    El uso de IA introduce una complicación completamente nueva.

    Incluso si el desarrollador comenzó con un repositorio vacío, el modelo Claude probablemente fue entrenado con código público, incluyendo potencialmente el código original de chardet.

    Esto plantea una pregunta jurídica inédita:

    ¿Puede una IA entrenada con código copyleft generar legalmente una versión no derivada de ese mismo software?

    La respuesta todavía no está clara.


    Un posible terremoto para la industria

    Muchos expertos creen que el caso chardet es solo el primer indicio de un problema mucho mayor.

    En listas de correo del desarrollo del kernel de Linux ya se debate la posibilidad de que agentes de IA reescriban grandes partes del sistema operativo bajo licencias distintas.

    Zoë Kooyman, directora de la Free Software Foundation, criticó duramente la práctica:

    “No hay nada ‘limpio’ en un modelo de lenguaje que ha ingerido el código que se le pide reimplementar”.


    La incertidumbre legal

    La situación legal tampoco está definida.

    El año pasado, la Corte Suprema de los EEUU rechazó revisar el caso Thaler v. Perlmutter, confirmando que el contenido generado exclusivamente por IA no puede tener copyright.

    Esto deja abiertas preguntas importantes:

    • ¿Cuánta participación humana se necesita para reclamar derechos de autor?
    • ¿Quién es responsable legalmente de una reescritura generada por IA?

    Ahora bien, el que no se pueda proteger código escrito por la IA no significa que la nueva versión de chardet sea una copia de la versión original.


    ¿El fin del modelo económico del software?

    Algunos pioneros del software libre creen que estamos ante un punto de inflexión.

    Armin Ronacher, creador del framework Flask, señala que las licencias copyleft siempre han dependido de la “dificultad”de reescribir código.

    La IA prácticamente ha eliminado ese obstáculo.

    Uno de los críticos más contundentes de esta nueva situación es Bruce Perens, autor de la Open Source Definition.

    Según Perens, esta tecnología podría transformar completamente la economía del software:

    “Estoy rompiendo el vidrio y activando la alarma de incendios. La economía del desarrollo de software está acabada”.

    Incluso demostró el problema recreando con IA una plataforma completa de System Reliability Engineering (SRE) en cuestión de días y bajo otra licencia.

    Hay que decir que esto no es nada nuevo y es algo que ya vemos que está beneficiando a sistemas operativos minoritarios como Linux y macOS ya que se ha vuelto muy sencillo portar aplicaciones de Windows a esos sistemas operativos.


    Un punto de inflexión tecnológico

    La capacidad de la IA para reescribir software plantea un dilema profundo tanto para empresas propietarias como para el movimiento de código abierto.

    Si cualquier base de código puede ser recreada rápidamente mediante el uso de la IA, los límites tradicionales entre software original, derivado y reimplementado podrían desaparecer.

    Como señaló Perens, quizá estamos viviendo un momento comparable a la invención de la imprenta:

    el conocimiento ha alcanzado una masa crítica, y las reglas que lo rodean están a punto de cambiar para siempre.

  • Claude resuelve un problema matemático complejo. Donald Knuth queda impresionado.

    IA
    La IA ayuda a Donald Knuth a resolver un problema matemático complejo

    «¡Shock! ¡Shock!”

    Donald Knuth no es precisamente un entusiasta de las modas tecnológicas. A sus 88 años, el profesor emérito de Stanford y ganador del Premio Turing es considerado uno de los padres de la informática moderna. Autor de la monumental obra The Art of Computer Programming, que escribe desde 1962, abandonó el correo electrónico en 1990 y aún ofrece una recompensa de US$2,56 por cada error detectado en sus libros. Por eso, cuando a finales de febrero de 2026 publicó un artículo titulado “Claude’s Cycles” que comenzaba con un enfático “¡Shock! ¡Shock!”, la comunidad científica prestó atención.

    El motivo, el modelo híbrido de razonamiento Claude Opus 4.6, desarrollado por Anthropic, había resuelto un problema matemático con el que Knuth llevaba semanas atascado.

    El problema del cubo tridimensional

    La cuestión pertenece al campo de la combinatoria y la teoría de grafos, concretamente a la descomposición de grafos dirigidos en ciclos hamiltonianos.

    El reto consiste en imaginar una cuadrícula tridimensional de tamaño m × m × m. Desde cada punto se puede avanzar en tres direcciones posibles. El objetivo era encontrar una regla general que permitiera recorrer todos los puntos exactamente una vez, formando tres ciclos distintos y no superpuestos que, en conjunto, utilizaran todas las aristas posibles.

    La escala del problema crece de forma astronómica: 3^(m³). El cálculo por fuerza bruta resulta impracticable.

    Knuth había logrado resolver manualmente el caso más pequeño no trivial (3×3×3), mientras que su colega Filip Stappers verificó empíricamente soluciones hasta 16×16×16. Todo indicaba que debía existir una regla matemática general. Nadie conseguía hallarla.


    31 pasos de razonamiento estructurado

    Stappers decidió introducir los parámetros exactos del problema en Claude Opus 4.6. Pero lo hizo con disciplina extrema: tras cada ejecución de código exploratorio, el modelo debía documentar inmediatamente su progreso antes de continuar.

    Durante aproximadamente una hora, Claude desarrolló una investigación en 31 etapas que, según Knuth, recordaba al proceso de ensayo y error de un estudiante de posgrado.

    El modelo:

    • Probó primero funciones lineales simples (sin éxito).
    • Intentó una búsqueda exhaustiva en profundidad y descartó el enfoque por el tamaño del espacio de búsqueda.
    • Redujo el problema a dos dimensiones e ideó un patrón “serpentino”.
    • Reconoció que la estructura subyacente era un grafo de Cayley.
    • Identificó su patrón como una variante del código Gray modular m-ario.

    En torno a la etapa 15 llegó al avance conceptual clave: la “descomposición en fibras”. Al dividir el cubo 3D en capas bidimensionales, simplificó radicalmente la estructura del problema.

    Tras varios intentos adicionales, el modelo concluyó que debía abandonar el tanteo computacional y apoyarse en construcción matemática pura.

    En el paso 31 encontró una solución elegante: un conjunto compacto de reglas, expresables en un breve programa en C, que generaba correctamente los ciclos hamiltonianos buscados.


    Un “coautor junior” con límites claros

    Stappers probó el programa para todas las dimensiones impares hasta 101. Funcionó sin fallos. Knuth descubrió más tarde que la solución era una de 760 construcciones válidas posibles.

    Sin embargo, el logro vino acompañado de matices importantes:

    • Claude encontró el cómo, pero no pudo demostrar el por qué.
    • Fue Knuth quien redactó la demostración matemática rigurosa que valida la construcción para todos los números impares.
    • El modelo fracasó al intentar generalizar el caso de dimensiones pares. Tras algunos intentos aislados exitosos, perdió completamente consistencia operativa.

    El episodio ilustra tanto el potencial como las limitaciones actuales de la IA en investigación avanzada.


    Hacia una nueva dinámica de investigación

    El caso refuerza la idea, expresada recientemente por el matemático Terence Tao, de que la IA generativa puede funcionar como un “coautor junior”: no sustituye al investigador principal, pero puede explorar rápidamente estructuras complejas.

    Otros referentes tecnológicos también están integrando IA en procesos avanzados. Por ejemplo, Linus Torvalds ha comentado sobre el uso de herramientas de IA en programación.

    Para la industria, que a menudo se apoya en métricas superficiales, el hecho de que un ganador del Premio Turing utilice un modelo de lenguaje para avanzar en un problema matemático abierto constituye un indicador mucho más significativo del progreso real.

    El esquema emergente parece claro:

    • Los humanos formulan las preguntas
    • La IA explora las estructuras ocultas
    • Los humanos formalizan las pruebas

    Knuth reconsidera su escepticismo

    Con su característico humor, Knuth cerró su artículo reconociendo que deberá revisar sus opiniones sobre la IA generativa. Incluso evocó el espíritu de Claude Shannon, figura clave de la teoría de la información, aludiendo al simbolismo del nombre “Claude”.

    Y concluyó con una frase que pocos esperaban de uno de los mayores escépticos de la disciplina:

    “Me quito el sombrero ante Claude.”

    Más que una anécdota técnica, el episodio podría marcar el inicio de una nueva etapa en la colaboración entre matemáticos y máquinas.

  • Anthropic busca atraer a usuarios de la competencia con nueva funcionalidad

    Claude, el nombre del modelo de Anthropic
    Anthropic busca impulsar el uso de Claude entre los usuarios de ChatGPT y Gemini

    Anthropic está aprovechando el auge de popularidad de Claude para lanzar una ofensiva directa contra plataformas rivales como OpenAI (con ChatGPT) y Google (con Gemini).

    En un movimiento estratégico para reducir al mínimo la dificultad que supone cambiar de ecosistema, la compañía ha habilitado su función de memoria para todos los usuarios gratuitos y ha lanzado una herramienta que permite importar fácilmente el historial contextual desde otros chatbots.

    Cambiar de IA sin empezar desde cero

    Uno de los mayores obstáculos para migrar entre asistentes de IA es la pérdida de contexto. Muchos usuarios invierten meses enseñando a su chatbot preferencias de formato, estilo de escritura, lenguajes de programación o detalles personales. Empezar desde cero en otra plataforma no es imposible, pero puede resultar tedioso.

    Para solucionar esto, Anthropic ha creado una herramienta de importación basada en un prompt predefinido. En lugar de requerir integraciones complejas vía API, el usuario solo necesita copiar y pegar un texto en su chatbot actual. Ese prompt instruye al sistema rival para que genere un “dossier” detallado con todo lo que ha aprendido sobre el usuario, organizado en un bloque de código limpio y estructurado.

    El prompt solicita explícitamente que se conserven:

    • Preferencias de tono, formato y estilo (“siempre haz X”, “nunca hagas Y”).
    • Datos personales como nombre, profesión e intereses.
    • Proyectos en curso, objetivos y temas recurrentes.
    • Herramientas, lenguajes y frameworks preferidos.

    Posteriormente, el usuario copia ese bloque de código y lo pega en el contexto de Claude. A partir de ese momento, Claude utilizará esa información importada y asimilada para continuar trabajando con el usuario, manteniendo la experiencia.

    Más acceso y control de privacidad

    Claude ofrecía la función de memoria a suscriptores de pago desde octubre de 2025, pero su expansión al plan gratuito supone un cambio importante en la estrategia de captación de usuarios de Anthropic.

    La función puede activarse desde el menú “Capabilities” en la configuración de Claude. Además, la compañía ha incorporado controles de privacidad robustos: los usuarios pueden pausar temporalmente la memoria sin borrarla, o eliminar completamente los datos almacenados en los servidores de Anthropic.

    Curiosamente, la empresa señala que el prompt de exportación diseñado para migrar datos puede utilizarse, en teoría, para mover información en cualquier dirección entre plataformas de IA que almacenan memoria de contexto (virtualmente todos).

    Aprovechando el momento

    Esta nueva funcionalidad forma parte de una ofensiva más amplia. Tras la decisión de ChatGPT de mostrar anuncios a usuarios gratuitos, Anthropic reiteró públicamente que Claude se mantendrá libre de publicidad. Posteriormente, desbloqueó para usuarios sin suscripción varias funciones antes restringidas, como la creación de archivos, conectores y habilidades adicionales.

    El impulso también ha sido técnico. Con modelos recientes como Opus 4.6 y Sonnet 4.6, que han demostrado ser muy capaces para realizar tareas complejas de programación, análisis de hojas de cálculo y automatización, entre otras.

    Claude ha ganado terreno entre los usuarios más avanzados, quienes la han estado recomendando. Esto explica en parte que la aplicación superó recientemente a ChatGPT en las listas de descargas gratuitas de la App Store, impulsada por herramientas como Claude Code y Claude Cowork. Claro que la otra parte de la explicación es política.

  • Claude, de Anthropic, alcanza el Nº1 en la App Store de EE.UU. en medio del conflicto con la Casa Blanca

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    La reacción del público no se ha hecho esperar. El asistente de inteligencia artificial Claude, desarrollado por Anthropic, escaló hasta el primer puesto de las aplicaciones gratuitas de la App Store de Apple en Estados Unidos este fin de semana, tras la confrontación pública entre la empresa y la administración del presidente Donald Trump que culminó el pasado viernes.

    Lejos de frenar el interés del público, la controversia parece haber impulsado una ola de apoyo. Durante el fin de semana, Claude alcanzó el Nº1 en el ranking de aplicaciones gratuitas de la App Store en EE.UU., superando a OpenAI, cuyo ChatGPT ocupa ahora el segundo puesto, y a Google Gemini, actualmente en tercera posición.

    Hace apenas dos meses, Claude se encontraba en el puesto 42 del ranking de descargas en Estados Unidos. El 30 de enero figuraba en la posición 131, antes de iniciar un ascenso sostenido a lo largo de febrero, según datos de análisis de aplicaciones. Históricamente, ChatGPT ha dominado el primer lugar durante la mayor parte del mes, respaldado por una base global de más de 900 millones de usuarios semanales.

    Anthropic afirma que el aumento de descargas se ha traducido en un crecimiento acelerado. La compañía señala que su base de usuarios gratuitos ha crecido más de un 60% desde enero, que los registros diarios se han triplicado desde noviembre y que esta semana se han marcado récords históricos cada día. Además, el número de suscriptores de pago se ha más que duplicado en lo que va de año, según un portavoz de la empresa.

    En redes sociales se ha observado que muchos usuarios han repudiado el acuerdo firmado por OpenAI con el Departamento de la Defensa de EEUU. Incluso Katy Perry ha participado en el debate publicando el siguiente mensaje en X.

    Se estima que unas 700,000 personas podrían haber protestado de esta manera contra OpenAI. Sin embargo, esto no compensaría las pérdidas sufridas por la cancelación del contrato cancelado por el gobierno de EEUU cuyo valor supera los US$200 millones anuales.

    Fundada en 2021 por ex-empleados de OpenAI, Anthropic ha ganado relevancia en el último año como proveedor de modelos de IA orientados a programación y aplicaciones empresariales. Sin embargo, su enfrentamiento con el gobierno la ha situado en el centro del debate público.