gadgetsgenial.es

Etiqueta: Anthropic

  • Anthropic asegura que DeepSeek y otras empresas chinas aprovechan el poder de Claude para entrenar su IA

    Claude
    Anthropic se queja del robo de IA

    El gran robo de la Inteligencia Artificial: Anthropic acusa a DeepSeek y rivales chinos de copiar el talento de Claude

    La empresa ha levantado la voz de alarma ante las «campañas a escala industrial» de sus competidores extranjeros. Estos buscan recolectar ilícitamente su brillante tecnología de inteligencia artificial. Anthropic, creador del popular chatbot Claude ha acusado formalmente a tres grandes firmas chinas de IA. Hablamos de DeepSeek, Moonshot y MiniMax. Anthropic afirma que estas empresas ejecutan ataques masivos de «destilación». El objetivo es acelerar el desarrollo de sus propios modelos.

    En el sector de la IA, la destilación es un proceso fascinante. Los desarrolladores entrenan un modelo más pequeño usando los resultados de un sistema más avanzado.

    Anthropic reconoce la validez de este método de entrenamiento. Sin embargo, los portavoces de la empresa afirman con firmeza que sus rivales usan esta técnica como un atajo injusto. Así adquieren capacidades poderosas en un tiempo récord. Además, así logran reducir drásticamente el enorme coste del desarrollo desde cero.

    Las investigaciones de Anthropic revelan datos sorprendentes. Los tres laboratorios chinos crearon unas 24.000 cuentas fraudulentas. Luego, orquestaron más de 16 millones de llamadas a Claude (probablemente a través del API). Anthropic vincula estas campañas con empresas específicas con «un alto nivel de confianza». Para ello, sus expertos correlacionaron direcciones IP y analizaron metadatos. También usaron modernos indicadores de infraestructura. Además, otros líderes de la industria aportaron pruebas para confirmar estos mismos comportamientos.

    Un poco de historia

    DeepSeek revolucionó recientemente la industria tecnológica. Sus desarrolladores lanzaron modelos altamente eficientes y sorprendentemente poderosos. Ahora, esta empresa es el foco principal de las acusaciones. Anthropic asegura que DeepSeek realizó más de 150.000 llamadas al API. Estos buscaban copiar las avanzadas capacidades de razonamiento de Claude. Además, Anthropic acusa a DeepSeek de usar a Claude para esquivar sus propias restricciones regionales. La empresa china pidió a la IA estadounidense generar respuestas seguras contra la censura. Estas preguntas trataban temas políticos sensibles, como disidentes, líderes del partido y autoritarismo.

    Las implicaciones de esta minería digital van mucho más allá del robo corporativo. Anthropic advierte de un gran riesgo. Los modelos destilados ilícitamente pierden las estrictas e importantes barreras de seguridad de la IA original. La empresa alerta de que esta brecha podría ayudar a gobiernos autoritarios. Estos podrían integrar inteligencia artificial de primer nivel en sistemas militares y de vigilancia masiva. Esto podría impulsar operaciones cibernéticas ofensivas y campañas de desinformación.

    Anthropic comparte esta lucha con otros gigantes tecnológicos. Muchos competidores extranjeros intentan aprovecharse de la investigación estadounidense. A principios del año pasado, OpenAI tomó medidas contundentes. La empresa bloqueó cuentas sospechosas tras detectar que firmas rivales destilaban sus modelos. La semana pasada, OpenAI apoyó las actuales preocupaciones de Anthropic. Sus portavoces enviaron una enérgica carta a los legisladores estadounidenses. En ella, acusan a DeepSeek de «aprovecharse gratuitamente» de la innovación en IA de Estados Unidos.

    ¿Cuál será la respuesta de Anthropic?

    Como respuesta proactiva, Anthropic promete actualizar su infraestructura. Sus ingenieros harán que los ataques de destilación sean más difíciles de ejecutar y mucho más fáciles de identificar. Sin embargo, esta controversia resalta la compleja realidad del entrenamiento de modelos de IA.

    Por un lado, Anthropic señala a sus rivales extranjeros por copiar sus datos. Sin embargo, al mismo tiempo, la empresa libra sus propias batallas legales en casa. Actualmente, varios editores de música han demandado al laboratorio de IA. Ellos acusan a Anthropic de usar copias ilegales de canciones protegidas por derechos de autor para entrenar a Claude.

  • Apple lanza una nueva versión beta de Xcode 26.3

    Xcode 26.3
    Xcode 26.3

    Últimos cambios antes del lanzamiento oficial

    Apple acaba de lanzar la segunda versión Release Candidate de Xcode 26.3. He estado usando la primera versión desde que fue anunciada por Apple y es una mejora importantísima con respecto a la versión 26.2.

    Antes de Xcode 26.3, utilizar agentes de IA dentro de Xcode era una experiencia frustrante. Personalmente había dejado de usar Xcode y había adoptado Antigravity de Google. Esta decisión se debía a muchos motivos, pero uno de los más importantes es que no era posible ni siquiera elegir el modelo de Anthropic con el que quería trabajar.

    A principios de este mes, Apple anunció la nueva versión de Xcode 26.3, la cual se integraría de forma nativa con herramientas de programación basadas en agentes de IA como Claude Agent de Anthropic y Codex de OpenAI. El cambio ha sido dramático. He abandonado Antigravity y ya no salgo de Xcode para nada.

    Esto no significa que no hubiera pequeños problemas propios de una versión beta. Por ejemplo, a veces el agente de Claude decidía realizar tareas utilizando comandos de Terminal, en lugar de usar las integraciones con Xcode, pero son temas menores.

    Xcode 26.3 se retrasa

    El pasado 11 de febrero, Apple lanzó Xcode 26.3 Release Candidate 1 aproximadamente al mismo tiempo que las versiones RC de macOS 26.3. Por lo tanto, los desarrolladores esperábamos que cuando esos sistemas operativos fueron lanzados oficialmente el 11 de febrero, Xcode 26.3 también estaría disponible. Sin embargo, no fue el caso. Probablemente todavía faltaban por afinar algunos detalles.

    Apple no ha informado acerca de las diferencias existentes entre Xcode 26.3 RC 1 y RC 2, pero probablemente han estado trabajando en resolver esos problemitas que habíamos detectado los desarrolladores..

    Sea como fuere, la versión 26.3 de Xcode ha recibido grandes elogios de la comunidad de desarrolladores que la han estado utilizando desde que se liberó la primera versión. Con el lanzamiento hoy de la versión RC 2, es razonable esperar que si no surjen más imprevistos, sea posible descargar la versión final en algún momento de la próxima semana.

  • Anthropic se burla de los anuncios en ChatGPT con un anuncio del Super Bowl

    Logotipo de OpenAI
    Logotipo de OpenAI

    Anthropic se ríe abiertamente de OpenAI en un anuncio del Superbowl

    OpenAI reveló recientemente que pronto veremos anuncios en las conversaciones de ChatGPT, y Anthropic se está divirtiendo con esto, emitiendo un anuncio durante el Super Bowl en el que no se nombra a ChatGPT, aunque queda muy claro que esa es su intención.

    El CEO de OpenAI, Sam Altman, dijo una vez que insertar anuncios en las conversaciones de ChatGPT sería «el último recurso» (para incrementar los ingresos de la compañía), pero más recientemente confirmó que, de hecho, los anuncios están en camino, aunque no aparecerán dentro de las respuestas de ChatGPT.

    Anthropic ha aprovechado esta situación para anunciar hoy que no insertará anuncios en las conversaciones con Claude.

    “Incluir anuncios en las conversaciones con Claude sería incompatible con lo que queremos que sea Claude: un asistente genuinamente útil para el trabajo y el pensamiento profundo. Queremos que Claude actúe sin ambigüedades en interés de nuestros usuarios. Así que hemos tomado una decisión: Claude seguirá sin anuncios. Nuestros usuarios no verán enlaces patrocinados junto a sus conversaciones con Claude; ni las respuestas de Claude estarán influenciadas por anunciantes o incluirán colocaciones de productos de terceros que nuestros usuarios no hayan solicitado.”

    Anthropic afirma que existen varios peligros al incluir anuncios en las conversaciones de los chatbots, incluido el sesgo potencial y la incentivación de los chatbots para mantener a los usuarios en las conversaciones durante períodos más largos.

    “Consideremos un ejemplo concreto. Un usuario menciona que tiene problemas para dormir. Un asistente sin incentivos publicitarios exploraría las diversas causas potenciales (estrés, entorno, hábitos, etc.) en función de lo que pueda ser más perspicaz para el usuario. Un asistente con publicidad tiene una consideración adicional: si la conversación presenta una oportunidad para realizar una transacción […]”

    “Tales anuncios también introducirían un incentivo para optimizar el compromiso: la cantidad de tiempo que las personas pasan usando Claude y la frecuencia con la que regresan. Estas métricas no están necesariamente alineadas con ser genuinamente útil. La interacción de IA más útil podría ser una corta, o una que resuelva la solicitud del usuario sin provocar más conversación.”

    La compañía ha publicado hoy un video de un minuto en su canal de YouTube burlándose de la idea de los anuncios en los chatbots. The Wall Street Journal informa que una versión de 30 segundos de este anuncio se emitirá durante el Super Bowl del domingo.

    El anuncio parodia la perspectiva de la publicidad intrusiva en las conversaciones de IA. La versión de 30 segundos presenta a un joven en un parque intentando hacer ejercicio, y que le pregunta a un espectador musculoso cómo lograr abdominales marcados. El hombre comienza con una respuesta detallada, aunque algo robótica, como la que los usuarios podrían obtener de un chatbot de IA, antes de escupir un anuncio de las plantillas «StepBoost Max». Puedes ver la versión de un minuto a continuación. Es realmente divertida.