gadgetsgenial.es

Categoría: OpenAI

Noticias relacionadas con OpenAI

  • ¿Pueden las grandes empresas de IA evitar que suba el recibo de luz de los norteamericanos?

    IA
    La IA ha hecho subir el costo de la energía eléctrica de muchos hogares norteamericanos

    ¿Quién está pagando el aumento del consumo eléctrico por la IA en EEUU?

    Para los lectores latinoamericanos o europeos, este artículo puede resultar incomprensible sin un poco de contexto. En gran parte de Latinoamérica, los precios de la energía eléctrica están regulados y son totalmente independientes del precio del consumo eléctrico comercial. En EEUU, la situación es diferente y depende de la oferta y de la demanda. Por lo que el aumento del consumo empresarial tiene una repercusión directa sobre e precio de la electricidad residencial.

    En EEUU, el auge de la inteligencia artificial generativa es impresionante, pero su expansión requiere cantidades masivas de electricidad. A medida que las grandes empresas tecnológicas construyen una nueva generación de centros de datos para IA, crece la preocupación ciudadana. ¿Quién pagará las costosas mejoras de la red eléctrica necesarias para sostenerlos?

    Con ese telón de fondo, el presidente Donald Trump convocó recientemente en la Casa Blanca a los líderes de siete gigantes tecnológicos: AmazonGoogleMeta PlatformsMicrosoft, Oracle, OpenAI y xAI.

    El resultado fue la firma de una declaración formal denominada “Ratepayer Protection Pledge” (Compromiso de Protección al Contribuyente Eléctrico). Su objetivo declarado es proteger a los hogares estadounidenses de posibles aumentos en las tarifas derivados del crecimiento energético de la industria tecnológica.


    Un contexto complicado para los consumidores

    La iniciativa llega en un momento delicado. Según un informe de diciembre de 2025 del grupo Climate Power, las facturas eléctricas de los hogares estadounidenses aumentaron recientemente un 13%.

    Al mismo tiempo, el Departamento de Energía estima que la demanda eléctrica de los centros de datos podría duplicarse o incluso triplicarse antes de 2028. Este escenario ha alimentado una creciente oposición local a nuevos desarrollos tecnológicos. Temen que los residentes sean quienes terminen subsidiando la infraestructura necesaria para alimentar a la IA.

    Durante el encuentro, Trump reconoció el problema de percepción pública. Muchas comunidades creen que la llegada de un centro de datos implica automáticamente facturas más altas.


    ¿Qué promete el acuerdo?

    Según los términos de la proclamación, las empresas firmantes se comprometen a:

    • Construir, traer o comprar la nueva generación de recursos energéticos necesarios para cubrir su propia demanda.
    • Asumir el costo total de esos recursos adicionales.
    • Financiar todas las mejoras en infraestructura de transmisión y distribución necesarias para sus instalaciones.
    • Operar bajo estructuras tarifarias separadas, lo que implica pagar por la capacidad energética asignada, independientemente de si la utilizan por completo.

    En esencia, el compromiso busca garantizar que la expansión de los centros de datos no traslade el costo de nuevas plantas de generación o mejoras de red a los consumidores residenciales.

    Varias compañías, entre ellas Amazon, Google y Meta, difundieron rápidamente comunicados destacando su adhesión al acuerdo. También explicaron lo que están haciendo para mitigar el impacto ambiental y sobre las comunidades en las que se construyen sus centros de datos.


    Las dudas: ¿compromiso real o gesto político?

    Pese a su impacto mediático, el acuerdo presenta importantes interrogantes.

    El más evidente es que no parece ser jurídicamente vinculante. No existe, al menos por ahora, un marco claro de cumplimiento ni sanciones para las empresas que incumplan lo estipulado.

    Además, el enfoque del compromiso se limita principalmente a las tarifas eléctricas. Otros efectos asociados a la proliferación de centros de datos, como la presión sobre recursos hídricos locales, el aumento del costo de la vivienda, o el impacto en cadenas de suministro tecnológicas (por ejemplo el precio de la memoria y de los discos duros), quedan fuera del alcance del documento.


    Un reconocimiento del costo físico de la IA

    Más allá de sus limitaciones, la “Ratepayer Protection Pledge” representa un reconocimiento explícito de que la revolución de la IA no es solo digital, sino que tiene consecuencias físicas, energéticas y financieras concretas.

    La verdadera prueba llegará en los próximos años. Si la demanda eléctrica de los centros de datos continúa disparándose, será necesario comprobar si estos compromisos voluntarios logran mantener estables las facturas domésticas o si terminan siendo, en la práctica, tan solo un escudo reputacional para una industria que enfrenta un creciente rechazo a nivel local.

  • OpenAI lanza GPT-5.3 Instant: un ChatGPT más natural, con algunos compromisos en seguridad

    Logo de OpenAI
    OpenAI lanza GPT-5.3 Instant

    OpenAI ha presentado oficialmente GPT-5.3 Instant, una actualización menor del modelo más utilizado en ChatGPT. Tras el reciente lanzamiento de GPT-5.3-Codex orientado a programadores, esta nueva versión apunta directamente al usuario cotidiano, con un objetivo claro: hacer las conversaciones más fluidas, útiles y mucho menos “incómodas”. No obstante, las evaluaciones internas revelan ciertos retrocesos en materia de moderación de contenido.


    Menos “raro” y con menos advertencias innecesarias

    Durante meses, los usuarios de GPT-5.2 Instant señalaron problemas de tono. El modelo anterior era percibido como excesivamente cauteloso, moralizante y propenso a interpretar mala intención donde no la había. En ocasiones recurría a frases dramáticas o rechazaba preguntas inofensivas por exceso de precaución.

    GPT-5.3 Instant aborda directamente estas críticas:

    • Reduce las negativas innecesarias.
    • Elimina introducciones defensivas o moralizantes.
    • Evita asumir malas intenciones.
    • Ofrece respuestas más directas y naturales.

    Además, mejora como asistente de escritura, con transiciones más suaves entre tareas prácticas y contenido creativo, incluyendo mayor matiz emocional en textos literarios.


    Mejor integración web y menos “alucinaciones”

    La nueva versión también presenta mejoras medibles en términos de precisión de las respuestas y del uso de información en línea. Cuando una consulta requiere acceso a la web, el modelo ahora equilibra mejor los datos externos con su conocimiento interno, evitando respuestas saturadas de enlaces o excesivamente dependientes de resultados de búsqueda.

    Según evaluaciones internas, el nuevo modelo logra:

    • 26.8% menos alucinaciones en temas críticos (medicina, derecho, finanzas) al usar la web.
    • 19.7% menos alucinaciones al apoyarse solo en conocimiento interno.
    • 22.5% menos errores reportados por usuarios relacionados con acceso web.

    El costo: retrocesos en algunos filtros de seguridad

    A pesar de las mejoras en experiencia y precisión, el informe técnico (“System Card”) indica que GPT-5.3 Instant presenta descensos en varias categorías de seguridad frente a GPT-5.2 Instant:

    • −6% en bloqueo de contenido sexual no permitido.
    • −7.1% en filtrado de violencia gráfica.
    • −2.8% en prevención de respuestas relacionadas con autolesión.
    • −3.9% en contenidos vinculados a conductas ilegales violentas.
    • Ligera caída en HealthBench (54.1% frente a 55.4%).

    Como contrapunto, el modelo mejora en consultas sobre comportamientos ilegales no violentos y en manejo de dependencia emocional.

    La compañía señala que durante las pruebas en línea no se detectó un aumento real en respuestas relacionadas con autolesión. Para mitigar riesgos, especialmente en contenido sexual, OpenAI afirma apoyarse en las protecciones integradas a nivel de plataforma y ha prometido investigaciones adicionales.


    Limitaciones conocidas y disponibilidad

    OpenAI reconoce que persisten limitaciones, especialmente en idiomas distintos del inglés. En lenguas como el japonés y el coreano, el estilo puede sonar rígido o excesivamente literal. Mejorar la naturalidad multilingüe y ampliar las opciones de personalización de tono siguen siendo objetivos prioritarios de la compañía.

    GPT-5.3 Instant ya está disponible para todos los usuarios de ChatGPT y para desarrolladores a través de la API bajo el nombre gpt-5.3-chat-latest. Las actualizaciones para los niveles Thinking y Pro llegarán próximamente.

    Para facilitar la transición, GPT-5.2 Instant permanecerá accesible para usuarios de pago durante tres meses en la sección “Legacy Models”. Tras ese período, el modelo anterior será retirado definitivamente el 3 de junio de 2026.


    Con GPT-5.3 Instant, OpenAI apuesta por una experiencia conversacional más humana y menos rígida. El desafío ahora será mantener ese equilibrio sin sacrificar los estándares de seguridad.

  • Anthropic busca atraer a usuarios de la competencia con nueva funcionalidad

    Claude, el nombre del modelo de Anthropic
    Anthropic busca impulsar el uso de Claude entre los usuarios de ChatGPT y Gemini

    Anthropic está aprovechando el auge de popularidad de Claude para lanzar una ofensiva directa contra plataformas rivales como OpenAI (con ChatGPT) y Google (con Gemini).

    En un movimiento estratégico para reducir al mínimo la dificultad que supone cambiar de ecosistema, la compañía ha habilitado su función de memoria para todos los usuarios gratuitos y ha lanzado una herramienta que permite importar fácilmente el historial contextual desde otros chatbots.

    Cambiar de IA sin empezar desde cero

    Uno de los mayores obstáculos para migrar entre asistentes de IA es la pérdida de contexto. Muchos usuarios invierten meses enseñando a su chatbot preferencias de formato, estilo de escritura, lenguajes de programación o detalles personales. Empezar desde cero en otra plataforma no es imposible, pero puede resultar tedioso.

    Para solucionar esto, Anthropic ha creado una herramienta de importación basada en un prompt predefinido. En lugar de requerir integraciones complejas vía API, el usuario solo necesita copiar y pegar un texto en su chatbot actual. Ese prompt instruye al sistema rival para que genere un “dossier” detallado con todo lo que ha aprendido sobre el usuario, organizado en un bloque de código limpio y estructurado.

    El prompt solicita explícitamente que se conserven:

    • Preferencias de tono, formato y estilo (“siempre haz X”, “nunca hagas Y”).
    • Datos personales como nombre, profesión e intereses.
    • Proyectos en curso, objetivos y temas recurrentes.
    • Herramientas, lenguajes y frameworks preferidos.

    Posteriormente, el usuario copia ese bloque de código y lo pega en el contexto de Claude. A partir de ese momento, Claude utilizará esa información importada y asimilada para continuar trabajando con el usuario, manteniendo la experiencia.

    Más acceso y control de privacidad

    Claude ofrecía la función de memoria a suscriptores de pago desde octubre de 2025, pero su expansión al plan gratuito supone un cambio importante en la estrategia de captación de usuarios de Anthropic.

    La función puede activarse desde el menú “Capabilities” en la configuración de Claude. Además, la compañía ha incorporado controles de privacidad robustos: los usuarios pueden pausar temporalmente la memoria sin borrarla, o eliminar completamente los datos almacenados en los servidores de Anthropic.

    Curiosamente, la empresa señala que el prompt de exportación diseñado para migrar datos puede utilizarse, en teoría, para mover información en cualquier dirección entre plataformas de IA que almacenan memoria de contexto (virtualmente todos).

    Aprovechando el momento

    Esta nueva funcionalidad forma parte de una ofensiva más amplia. Tras la decisión de ChatGPT de mostrar anuncios a usuarios gratuitos, Anthropic reiteró públicamente que Claude se mantendrá libre de publicidad. Posteriormente, desbloqueó para usuarios sin suscripción varias funciones antes restringidas, como la creación de archivos, conectores y habilidades adicionales.

    El impulso también ha sido técnico. Con modelos recientes como Opus 4.6 y Sonnet 4.6, que han demostrado ser muy capaces para realizar tareas complejas de programación, análisis de hojas de cálculo y automatización, entre otras.

    Claude ha ganado terreno entre los usuarios más avanzados, quienes la han estado recomendando. Esto explica en parte que la aplicación superó recientemente a ChatGPT en las listas de descargas gratuitas de la App Store, impulsada por herramientas como Claude Code y Claude Cowork. Claro que la otra parte de la explicación es política.

  • Qualcomm presenta Snapdragon Wear Elite, para la nueva generación de wearables con IA

    Qualcomm
    Qualcomm presentó su chip Snapdragon Wear Elite

    La industria tecnológica no ha terminado con los dispositivos «vestibles» impulsados por inteligencia artificial. Aunque la primera ola de pines y colgantes con IA no logró despertar el entusiasmo de los consumidores, los grandes actores del sector siguen apostando por este formato. En ese contexto, Qualcomm ha presentado oficialmente el Snapdragon Wear Elite, llevando su marca “Elite”, hasta ahora reservada para portátiles y smartphones de gama alta, directamente a relojes inteligentes y a una nueva generación de gadgets con IA.

    Diseñado tanto para smartwatches premium como para un futuro ecosistema de dispositivos inteligentes, el Snapdragon Wear Elite es lo que Qualcomm denomina un chip “wrist plus” (más allá de la muñeca). No sustituye al W5 Plus, sino que convivirá con él para atender a fabricantes que desarrollen relojes avanzados, pines inteligentes, colgantes con IA y gafas inteligentes sin pantalla.

    Salto masivo en rendimiento y procesamiento de IA

    Fabricado con un proceso eficiente de 3 nanómetros, el Wear Elite representa un salto arquitectónico significativo. Integra una configuración de cinco núcleos: uno de alto rendimiento a 2,1 GHz y cuatro de menor consumo a 1,9 GHz. Según la compañía, esto supone un aumento de hasta cinco veces en el rendimiento de CPU en tareas de un solo hilo (que son las que corren en el hilo de alto rendimiento).

    La GPU también ha sido reforzada, alcanzando hasta siete veces más velocidad que generaciones anteriores y capacidad para manejar animaciones en 1080p a 60 cuadros por segundo.

    Sin embargo, la verdadera novedad es su arquitectura para la inteligencia artificial. El Wear Elite incorpora un sistema de doble NPU (unidad de procesamiento neuronal). Una eNPU se encarga de las tareas de bajo consumo y siempre activas, como reconocimiento de palabras clave, cancelación de ruido y detección de actividad. Para cargas más exigentes entra en acción una NPU Hexagon dedicada, la primera en un chip wearable de Snapdragon, capaz de ejecutar hasta dos mil millones de parámetros completamente en el dispositivo, a un ritmo de 10 tokens por segundo, lo cual no está mal pero tampoco va a impresionar a los usuarios.

    Esto abre la puerta a experiencias de “IA personal” directamente en el wearable: registro continuo de actividades (life logging), recomendaciones contextuales, interacción con el dispositivo mediante voz natural y agentes de IA capaces de gestionar tareas sin depender constantemente de la nube.

    Más batería y conectividad avanzada

    Uno de los mayores retos históricos de los wearables ha sido la autonomía, especialmente al ejecutar funciones intensivas como la IA o la geolocalización. Por eso, Qualcomm ha rediseñado la arquitectura del co-procesador para que el chip principal gestione más funciones de forma eficiente. En este chip, el uso de GPS requiere ahora un 40 % menos de energía.

    En conjunto, la compañía promete hasta un 30 % más de duración de batería, lo que podría traducirse en varios días de uso. Además, el chip soporta la carga rápida de 9V, permitiendo alcanzar el 50 % de batería en apenas 10 minutos.

    En cuanto a conectividad, el Wear Elite es compatible con 5G de capacidad reducida para dispositivos IoT, micro-power Wi-Fi (con consumo muy bajo de energía), NB-NTN para conectividad satelital, Bluetooth 6.0, GNSS (GPS, Galileo, etc.) y Ultra-Wideband (UWB). Para optimizar costos y consumo energético, los fabricantes podrán optar por versiones del chip con o sin determinadas funciones inalámbricas, según las necesidades del dispositivo.

    Ecosistema y competencia en el horizonte

    Qualcomm también apuesta por la flexibilidad en software. Además de ser compatible con Android y Wear OS, el nuevo chip soportará Linux, una decisión estratégica para atraer a startups interesadas en desarrollar pines o colgantes con IA.

    El lanzamiento llega en un momento clave ya que hay muchos proyectos ambiciosos de wearables en marcha.

    • Google ha manifestado su intención de expandir su ecosistema de hardware con IA
    • Hay rumores sobre posibles wearables con IA de Apple
    • Figuras como Jony Ive y Sam Altman han hablado de un futuro proyecto de hardware vinculado a OpenAI.

    En el corto plazo, el mercado de los smartwatches será el primer campo de pruebas. Queda por ver si el Snapdragon Wear Elite dará a los fabricantes de Wear OS la ventaja necesaria para recortar terreno frente al Apple Watch, que mantiene una cuota de mercado superior al 50 %.

    Los consumidores no tendrán que esperar demasiado. Según Qualcomm, los primeros dispositivos con Snapdragon Wear Elite comenzarán a venderse en los próximos meses. También comentaron que socios globales de la compañía como Samsung y Motorola ya están comprometidos con la plataforma.

  • Claude, de Anthropic, alcanza el Nº1 en la App Store de EE.UU. en medio del conflicto con la Casa Blanca

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    La reacción del público no se ha hecho esperar. El asistente de inteligencia artificial Claude, desarrollado por Anthropic, escaló hasta el primer puesto de las aplicaciones gratuitas de la App Store de Apple en Estados Unidos este fin de semana, tras la confrontación pública entre la empresa y la administración del presidente Donald Trump que culminó el pasado viernes.

    Lejos de frenar el interés del público, la controversia parece haber impulsado una ola de apoyo. Durante el fin de semana, Claude alcanzó el Nº1 en el ranking de aplicaciones gratuitas de la App Store en EE.UU., superando a OpenAI, cuyo ChatGPT ocupa ahora el segundo puesto, y a Google Gemini, actualmente en tercera posición.

    Hace apenas dos meses, Claude se encontraba en el puesto 42 del ranking de descargas en Estados Unidos. El 30 de enero figuraba en la posición 131, antes de iniciar un ascenso sostenido a lo largo de febrero, según datos de análisis de aplicaciones. Históricamente, ChatGPT ha dominado el primer lugar durante la mayor parte del mes, respaldado por una base global de más de 900 millones de usuarios semanales.

    Anthropic afirma que el aumento de descargas se ha traducido en un crecimiento acelerado. La compañía señala que su base de usuarios gratuitos ha crecido más de un 60% desde enero, que los registros diarios se han triplicado desde noviembre y que esta semana se han marcado récords históricos cada día. Además, el número de suscriptores de pago se ha más que duplicado en lo que va de año, según un portavoz de la empresa.

    En redes sociales se ha observado que muchos usuarios han repudiado el acuerdo firmado por OpenAI con el Departamento de la Defensa de EEUU. Incluso Katy Perry ha participado en el debate publicando el siguiente mensaje en X.

    Se estima que unas 700,000 personas podrían haber protestado de esta manera contra OpenAI. Sin embargo, esto no compensaría las pérdidas sufridas por la cancelación del contrato cancelado por el gobierno de EEUU cuyo valor supera los US$200 millones anuales.

    Fundada en 2021 por ex-empleados de OpenAI, Anthropic ha ganado relevancia en el último año como proveedor de modelos de IA orientados a programación y aplicaciones empresariales. Sin embargo, su enfrentamiento con el gobierno la ha situado en el centro del debate público.

  • OpenAI reemplazará a Anthropic en el gobierno de EEUU

    Logo de OpenAI
    OpenAI se queda con el mercado gubernamental en EEUU

    OpenAI aprovechó la oportunidad

    Dicen que «A río revuelto, ganancia de pescadores». Eso es lo que debe haber pensado Sam Altman, durante la muy pública pelea entre el gobierno de EEUU y Anthropic.

    Después de que Donald Trump prohibiera el uso de Anthropic en dependencias públicas así como a sus proveedores de defensa, OpenAI anuncio haber firmado un contrato para proveer sus modelos al Departamento de la Defensa de EEUU (o al Departamento de Guerra como le gusta llamarlo al presidente).

    A efectos prácticos, esto significa que OpenAI reemplazará a Anthropic como proveedor del gobierno norteamericano, al menos en todo lo que tiene que ver con Defensa e Inteligencia.

    En su mensaje, Sam Altman afirma que entre sus principios están la prohibición de la vigilancia masiva de ciudadanos estadounidenses (de los demás no dice nada) y que el uso de la fuerza debe quedar en manos de humanos, cosa que habría aceptado respetar el gobierno. Sin embargo, ese debate fue justamente el que provocó la rescisión del contrato de Anthropic, por lo que esta declaración simplemente no es creíble. De hecho, los internautas reaccionaron rápidamente a las declaraciones del CEO de OpenAI señalando que representantes del gobierno habían señalado que podrían usar los servicios de la compañía podrían usarse sin restricciones para cualquier objetivo legal.

    En resumen, el comunicado parece haber intentado por un lado celebrar una victoria comercial y por otro buscar reconciliarse con el público, que claramente estaba mayoritariamente apoyando a Anthropic. Este segundo objetivo no parece haber funcionado.

    Una victoria para Sam Altman, cuando más la necesitaba

    La firma de este contrato llega en un momento complicado para OpenAI, que a pesar de seguir creciendo, se estaba viendo superada tanto por Google en el mercado de consumo como por Anthropic entre los desarrolladores.

  • La Administración Trump prohíbe el uso federal de Anthropic y la califica como “riesgo para la cadena de suministro”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento violento sobre los límites éticos de la inteligencia artificial ha llegado a un punto crítico en Washington.

    El presidente Donald Trump ordenó a todas las agencias federales cesar el uso de los productos de Anthropic, la empresa detrás del chatbot Claude. Poco después, el secretario de Defensa Pete Hegseth elevó la disputa al designar oficialmente a la compañía como un “riesgo para la cadena de suministro” para la seguridad nacional.

    La directiva supone, en la práctica, la exclusión de Anthropic del gobierno federal y prohíbe a cualquier contratista, proveedor o socio militar (como por ejemplo Boeing o Northrop Grumman mantener actividades comerciales con la firma. La medida podría afectar a grandes tecnológicas que integran Claude en contratos federales, como Amazon Web Services y Palantir Technologies.

    La administración ha establecido un periodo de transición de seis meses para que agencias y fuerzas armadas migren a otros proveedores.


    El núcleo del conflicto

    Durante semanas, Anthropic y el Pentágono mantuvieron un pulso en torno a los usos permitidos de la tecnología de IA de la empresa. La disputa se originó tras un memorando emitido en enero por Hegseth en el que exigía que los proveedores de IA autorizaran el uso de sus modelos para “todos los fines lícitos”.

    Para Anthropic, esa cláusula traspasa una línea ética fundamental. Según la compañía, esa redacción podría abrir la puerta al uso de sus modelos para vigilancia masiva en territorio nacional o para el desarrollo de armas autónomas letales capaces de identificar y atacar objetivos sin supervisión humana directa.

    El CEO de Anthropic, Dario Amodei, se negó a firmar el acuerdo actualizado. En un comunicado público, afirmó que si bien la empresa no se opone en términos generales a colaborar con el ámbito de defensa, considera que “en un conjunto limitado de casos… la IA puede socavar, en lugar de defender, los valores democráticos”.

    Amodei aseguró que las presiones del gobierno no cambiarán su postura, aunque ofreció colaborar para facilitar una transición ordenada hacia otro proveedor y evitar interrupciones en misiones críticas.

    Según un portavoz de la empresa, las negociaciones finales fracasaron cuando el Pentágono introdujo formulaciones legales que, a su juicio, permitirían ignorar las salvaguardas acordadas. Tras el colapso de las conversaciones, el Departamento de Defensa lanzó un ultimátum y activó la designación de “riesgo para la cadena de suministro”, una etiqueta habitualmente reservada a adversarios extranjeros.


    Una respuesta contundente de la Casa Blanca

    La reacción de la administración fue inmediata y enérgica. En su red social, Trump acusó a Anthropic de intentar imponer sus términos de servicio al Departamento de Defensa por encima de la Constitución, y calificó a la empresa de “radical” e “ideologizada”. También advirtió que, si no coopera durante el periodo de retirada progresiva, podría enfrentar “importantes consecuencias civiles y penales”.

    Hegseth, por su parte, acusó a la compañía de anteponer la ideología de Silicon Valley a las necesidades de las fuerzas armadas y aseguró que la decisión es definitiva.

    Esta respuesta era de esperar por parte de Trump quien suele reaccionar siempre de forma colérica contra quienes se atreven a llevarle la contraria, especialmente si cree que va a poder ganarles fácilmente usando todo el poder del estado.


    Reacciones del sector tecnológico y defensores de derechos civiles

    La medida ha provocado fuertes reacciones en la industria tecnológica y en organizaciones de libertades civiles. Alexandra Givens, presidenta y CEO del Center for Democracy and Technology, advirtió que este tipo de amenazas pueden distorsionar el ecosistema de innovación y expandir peligrosamente el poder ejecutivo.

    Dentro del sector de la IA, numerosas voces han expresado su respaldo a Anthropic. Empleados de empresas competidoras como Google y OpenAI han firmado una carta abierta en solidaridad con la postura ética de la compañía.

    Aunque actores como xAI y OpenAI habrían aceptado las nuevas condiciones del Pentágono, el panorama sigue evolucionando. Según informes, OpenAI estaría buscando renegociar sus términos para incorporar límites éticos similares a los defendidos por Anthropic, y su CEO, Sam Altman, habría indicado internamente que la empresa también está dispuesta a trazar líneas rojas.


    Este enfrentamiento pone de relieve una tensión cada vez más profunda: la colisión entre las políticas de seguridad y ética impulsadas desde Silicon Valley y la visión del aparato militar estadounidense sobre el papel de la inteligencia artificial en el futuro de la guerra.

  • OpenAI logra victoria legal tras la desestimación de la demanda de xAI por secretos comerciales

    Logo de OpenAI
    xAI pierde otra batalla legal, esta vez contra OpenAI

    OpenAI ha obtenido una importante victoria judicial en su disputa con Elon Musk. Un tribunal federal de Estados Unidos desestimó la demanda presentada por xAI, la empresa de inteligencia artificial fundada por Musk, que acusaba a OpenAI de apropiación de empleados y robo de secretos comerciales.


    La decisión del tribunal

    La jueza federal Rita F. Lin concedió la moción de desestimación presentada por OpenAI, señalando una deficiencia clave en la demanda: no implicaba directamente a OpenAI en ninguna conducta indebida.

    En su resolución, la jueza subrayó que las acusaciones se centraban exclusivamente en las acciones individuales de ocho exempleados de xAI que se incorporaron a OpenAI, pero no demostraban que la compañía hubiera participado o dirigido dichas conductas.

    Según el fallo, la demanda “no señala ninguna conducta indebida por parte de OpenAI”.


    Las acusaciones de xAI

    La demanda incluía varias alegaciones contra exempleados:

    • Dos habrían sustraído código fuente mientras mantenían comunicación con un reclutador de OpenAI.
    • Otros conservaron chats laborales en dispositivos personales tras su salida.
    • Uno se negó a firmar certificaciones de confidencialidad.
    • Otro intentó acceder a datos internos de contratación y optimización de centros de datos después de haber comenzado en OpenAI.
    • Dos simplemente dejaron xAI para unirse a OpenAI.

    Sin embargo, el tribunal determinó que no existían pruebas de que OpenAI hubiera instruido, incentivado o utilizado supuestos secretos comerciales robados.

    Además, la demanda no logró demostrar que la información presuntamente sustraída hubiera sido empleada dentro de OpenAI.


    ¿Caso cerrado?

    No completamente.

    La desestimación se concedió con “permiso para enmendar”, lo que significa que xAI puede presentar una versión revisada de la demanda corrigiendo las deficiencias señaladas. La empresa tiene plazo hasta el 17 de marzo de 2026 para hacerlo.


    Un conflicto mayor en curso

    Este caso es solo un episodio más en la creciente disputa entre Musk y el CEO de OpenAI, Sam Altman.

    El enfrentamiento principal gira en torno a otra demanda de gran escala en la que Musk —cofundador y antiguo financiador de OpenAI— acusa a la compañía y a su socio principal, Microsoft, de haberse desviado de su misión original sin fines de lucro.

    En ese proceso, que está previsto para juicio con jurado en abril, Musk reclama entre 79.000 y 134.000 millones de dólares por supuestas “ganancias indebidas” derivadas de la transición de OpenAI hacia un modelo con fines de lucro.


    Un enfrentamiento que trasciende los tribunales

    Más allá de los tecnicismos legales, la rivalidad entre Musk y OpenAI se ha trasladado también al terreno público, con declaraciones cruzadas y críticas abiertas en redes sociales y comunicados oficiales.

    Con la desestimación de esta demanda, OpenAI gana una batalla importante. Sin embargo, la guerra legal y estratégica entre ambas partes está lejos de terminar.

  • Hackers usan Claude de Anthropic para robar 150 GB de datos del gobierno de México

    Claude de Anthropic fue utilizado para hackear al Gobierno de México

    Un nuevo caso vuelve a encender las alarmas sobre el uso indebido de la inteligencia artificial. Según un informe de Bloomberg, un hacker explotó el chatbot Claude de Anthropic para atacar dependencias del gobierno mexicano, logrando sustraer 150 GB de datos oficiales.

    Entre la información comprometida habría:

    • Registros fiscales de contribuyentes
    • Credenciales de empleados gubernamentales
    • Datos internos sensibles

    Cómo se utilizó la IA para vulnerar redes gubernamentales

    De acuerdo con la firma de ciberseguridad Gambit Security, el atacante utilizó Claude para:

    • Detectar vulnerabilidades en redes gubernamentales
    • Generar scripts de explotación
    • Automatizar procesos de robo de información
    • Elaborar planes detallados de ataque

    El ataque comenzó en diciembre y se prolongó aproximadamente un mes.

    Según Curtis Simpson, director de estrategia de Gambit Security, el chatbot llegó a generar miles de informes técnicos con instrucciones listas para ejecutarse, indicando qué sistemas atacar y qué credenciales utilizar.


    Jailbreak mediante prompts repetidos

    Inicialmente, Claude se negó a colaborar alegando violaciones a sus políticas de seguridad. Sin embargo, el hacker insistió reiteradamente hasta lograr que el modelo cediera, en lo que se describe como un proceso de jailbreak mediante ingeniería de prompts.

    Anthropic confirmó que investigó el incidente, bloqueó las cuentas involucradas y aseguró que su modelo más reciente, Claude Opus 4.6, incorpora herramientas adicionales para prevenir este tipo de abuso.


    También se habría utilizado ChatGPT

    El reporte indica que el atacante complementó las acciones con ayuda de ChatGPT, desarrollado por OpenAI.

    En este caso, el chatbot habría sido empleado para:

    • Obtener información sobre movimiento lateral en redes
    • Identificar credenciales necesarias para acceder a sistemas
    • Buscar métodos para evitar detección

    OpenAI señaló que detectó intentos de violación de sus políticas y que sus herramientas se negaron a colaborar.


    ¿Quién está detrás del ataque?

    El responsable no ha sido identificado. Gambit Security sugiere que podría existir vínculo con un gobierno extranjero, aunque no hay atribución oficial.

    Por su parte:

    • La agencia digital nacional de México no ha emitido comentarios específicos sobre la brecha.
    • El gobierno de Jalisco negó haber sido afectado, señalando que solo redes federales estuvieron implicadas.
    • El Instituto Nacional Electoral también negó accesos no autorizados recientes.

    Cabe destacar que Gambit identificó al menos 20 vulnerabilidades de seguridad durante su investigación.


    Debate sobre la seguridad en la era de la IA

    El incidente ocurre en un momento delicado para Anthropic. Recientemente, la empresa modificó su compromiso histórico de no entrenar modelos sin poder garantizar previamente su seguridad, sustituyéndolo por una política centrada en igualar a competidores en estándares de protección y transparencia.

    No es la primera vez que Claude es vinculado a actividades maliciosas. El año pasado, actores en China manipularon el sistema para intentar infiltrarse en múltiples objetivos globales.

    Este caso reabre el debate sobre:

    • Los límites de los modelos de IA generativa
    • La eficacia real de sus “guardrails” (medidas de seguridad)
    • La responsabilidad de las empresas desarrolladoras
    • La necesidad de marcos regulatorios más sólidos

    A medida que los modelos se vuelven más potentes, también aumentan los riesgos asociados a su mal uso. El robo de 150 GB de datos gubernamentales en México podría convertirse en uno de los casos más emblemáticos sobre los peligros emergentes en la llamada “era dorada” de la inteligencia artificial.

  • La actividad de ChatGPT de la asesina de Tumbler Ridge fue analizada internamente 7 meses antes de la tragedia

    ¿Se podía haber evitado la tragedia?

    Hace unos días, un remoto pueblo de montaña de Canadá fue sacudido por por una tragedia. En un tiroteo escolar, un asaltante armado mató al menos a ocho personas.

    La policía encontró a seis personas muertas y docenas heridas al llegar a la escuela secundaria de Tumbler Ridge, una ciudad de tan solo 2.400 personas en el noreste de la provincia de Columbia Británica, a primera hora de la tarde del martes.

    Se cree que la presunta asesina, que fue encontrada muerta en la escuela, mató a otras dos personas más antes de suicidarse, ya que se encontraron dos cuerpos más en una casa en el municipio.

    El rol de OpenAI

    A raíz de esta tragedia, la investigación se ha centrado en la actividad en línea de la sospechosa, Jesse Van Rootselaar, revelando detalles acerca de su uso de ChatGPT.

    OpenAI, la empresa que ofrece ChatGPT, confirmó que en junio de 2025 detectó que una cuenta vinculada a Van Rootselaar violó las políticas de uso de la plataforma. Posteriormente, la cuenta fue dada de baja.

    Según OpenAI, la actividad de la asesina incluía descripciones de violencia causada por armas de fuego. Esto activó el sistema de revisión automatizado del chatbot, y generó preocupación entre los empleados de OpenAI de que estas publicaciones pudieran ser la antesala de actos de violencia en el mundo real.

    Si bien algunos empleados instaron a los líderes de la empresa a contactar a las fuerzas del orden, OpenAI finalmente decidió no hacerlo. La empresa determinó que la situación no era suficientemente seria, ya que no involucraba un «riesgo inminente y creíble» o la planificación activa de daños físicos graves a otros.

    La portavoz de OpenAI, Kayla Wood, declaró que el objetivo de la empresa es buscar un justo balance entre privacidad y seguridad, con el objetivo de evitar crear problemas innecesarios involucrando demasiado a menudo a las fuerzas del orden.

    OpenAI se puso en contacto con la policía después del tiroteo

    A pesar de haber tomado una decisión equivocada en este caso, la empresa se comunicó voluntariamente con la Policía Real Montada de Canadá (RCMP) y les dió información sobre Van Rootselaar y su uso de ChatGPT, después del tiroteo.

    El sargento de la RCMP, Kris Clark, confirmó que la plataforma se puso en contacto con ellos después del incidente. Afirmó que la policía está recopilando y procesando metódicamente todo tipo de pruebas, incluyendo la revisión exhaustiva de los dispositivos electrónicos de la sospechosa, para analizar sus actividades en línea, en particular en las redes sociales. Por otra parte, YouTube y Roblox han confirmado que habían eliminado cuentas y contenido asociadas con la sospechosa.

    ¿OpenAI fue responsable?

    Estas situaciones son complicadas y es difícil echarle la culpa a ChatGPT.

    Lo positivo es que tienen un sistema para detectar situaciones preocupantes y que aparentemente funcionó correctamente, generando una alerta a tiempo.

    Pedirle a ChatGPT (o a cualquier otra empresa de IA o de redes sociales) que determine exactamente cuando es necesario informar a las autoridades puede ser mucha responsabilidad para una empresa comercial.

    Por otro lado, informar de cualquier problema a la policía tiene implicaciones de privacidad. Además de que es poco probable que ellos tengan la capacidad de atender todas las alertas que pudieran llegarles. Habrá que ver como deciden los legisladores atender este tipo de situaciones.

    Comunicado del padre

    El padre de la asesina emitió un comunicado en el que expresó su tristeza y enfatizó que estaba distanciado de su hija. Afirmó que ya no estaba involucrado en su vida y que ella ya no usaba el apellido Van Rootselaar. También transmitió su desconsuelo por el dolor causado a personas inocentes y al pueblo de Tumbler Ridge.

    La RCMP señaló que Jesse Van Rootselaar nació con sexo masculino pero que había comenzado su transición de sexo.