gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • Anthropic frente al Pentágono: un ultimátum de 72 horas

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento cuyas consecuencias pueden ser muy serias se desarrolla actualmente entre el Departamento de la Defensa de los EEUU y Anthropic, la startup de inteligencia artificial creadora del chatbot Claude. El Pentágono habría emitido un ultimátum de 72 horas exigiendo que la empresa elimine o flexibilice sus principales barreras de seguridad y permita el uso de su tecnología para “cualquier uso legal” en aplicaciones militares.

    Si Anthropic se niega, podría enfrentar represalias sin precedentes, incluyendo la cancelación de contratos federales y consecuencias en cascada dentro del ecosistema de defensa tecnológica.


    El núcleo del conflicto: “cualquier uso legal”

    El desacuerdo gira en torno al control y los límites éticos del uso de la IA.

    Anthropic ha ofrecido adaptar políticas específicas para el ámbito militar, pero ha marcado dos líneas rojas claras, no usar sus modelos para:

    • Realizar vigilancia masiva doméstica sobre ciudadanos estadounidenses.
    • Crear armas letales completamente autónomas.

    Según los reportes, el CEO de Anthropic, Dario Amodei, se reunió con el secretario de Defensa Pete Hegseth y el CTO del Pentágono Emil Michael para abordar la disputa. El Departamento de Defensa habría considerado medidas agresivas, incluida la invocación de la Defense Production Act, que permite al presidente obligar a empresas privadas a priorizar contratos relacionados con la seguridad nacional.

    Otra posible medida sería designar a Anthropic como “riesgo para la cadena de suministro”, lo que podría forzar a grandes contratistas de defensa a retirar su tecnología de sistemas clasificados.


    El factor IL6 y la ventaja estratégica

    Parte del poder de negociación de Anthropic radicaría en que Claude opera bajo clasificación Impact Level 6 (IL6), el nivel más alto para sistemas en la nube que manejan información militar clasificada.

    Esto lo situaría en el centro de flujos de trabajo altamente sensibles dentro del Pentágono. Desconectarlo podría generar disrupciones significativas, mientras que permitir un uso irrestricto podría entrar en tensión con directivas existentes sobre supervisión humana en sistemas de armas e inteligencia.


    Ajustes internos en medio de la presión

    En paralelo al enfrentamiento con el Pentágono, Anthropic ha modificado su Política de Escalado Responsable (RSP).

    Antes, la empresa prometía detener el entrenamiento de nuevos modelos si no se cumplían ciertos umbrales estrictos de seguridad. Ahora ha sustituido esos “disparadores automáticos” por informes de riesgo y hojas de ruta de transparencia, un enfoque más flexible en un entorno de competencia acelerada.

    El director científico de la compañía, Jared Kaplan, ha señalado que la rapidez con la que avanzan los competidores influyó en esta decisión.


    Una tensión estructural más amplia

    El choque refleja un dilema mayor: cómo equilibrar prioridades de seguridad nacional con gobernanza ética de la IA y autonomía corporativa.

    Para el Pentágono, el acceso a IA de vanguardia puede considerarse una necesidad estratégica. Para Anthropic, mantener control sobre los usos de su tecnología es central para su credibilidad y su identidad como empresa orientada a la seguridad.

    Sea cual sea el desenlace, este episodio marca una nueva etapa en la relación entre Silicon Valley y el aparato de seguridad estadounidense, donde las promesas éticas y las exigencias soberanas empiezan a chocar de forma cada vez más directa.

  • OpenAI logra victoria legal tras la desestimación de la demanda de xAI por secretos comerciales

    Logo de OpenAI
    xAI pierde otra batalla legal, esta vez contra OpenAI

    OpenAI ha obtenido una importante victoria judicial en su disputa con Elon Musk. Un tribunal federal de Estados Unidos desestimó la demanda presentada por xAI, la empresa de inteligencia artificial fundada por Musk, que acusaba a OpenAI de apropiación de empleados y robo de secretos comerciales.


    La decisión del tribunal

    La jueza federal Rita F. Lin concedió la moción de desestimación presentada por OpenAI, señalando una deficiencia clave en la demanda: no implicaba directamente a OpenAI en ninguna conducta indebida.

    En su resolución, la jueza subrayó que las acusaciones se centraban exclusivamente en las acciones individuales de ocho exempleados de xAI que se incorporaron a OpenAI, pero no demostraban que la compañía hubiera participado o dirigido dichas conductas.

    Según el fallo, la demanda “no señala ninguna conducta indebida por parte de OpenAI”.


    Las acusaciones de xAI

    La demanda incluía varias alegaciones contra exempleados:

    • Dos habrían sustraído código fuente mientras mantenían comunicación con un reclutador de OpenAI.
    • Otros conservaron chats laborales en dispositivos personales tras su salida.
    • Uno se negó a firmar certificaciones de confidencialidad.
    • Otro intentó acceder a datos internos de contratación y optimización de centros de datos después de haber comenzado en OpenAI.
    • Dos simplemente dejaron xAI para unirse a OpenAI.

    Sin embargo, el tribunal determinó que no existían pruebas de que OpenAI hubiera instruido, incentivado o utilizado supuestos secretos comerciales robados.

    Además, la demanda no logró demostrar que la información presuntamente sustraída hubiera sido empleada dentro de OpenAI.


    ¿Caso cerrado?

    No completamente.

    La desestimación se concedió con “permiso para enmendar”, lo que significa que xAI puede presentar una versión revisada de la demanda corrigiendo las deficiencias señaladas. La empresa tiene plazo hasta el 17 de marzo de 2026 para hacerlo.


    Un conflicto mayor en curso

    Este caso es solo un episodio más en la creciente disputa entre Musk y el CEO de OpenAI, Sam Altman.

    El enfrentamiento principal gira en torno a otra demanda de gran escala en la que Musk —cofundador y antiguo financiador de OpenAI— acusa a la compañía y a su socio principal, Microsoft, de haberse desviado de su misión original sin fines de lucro.

    En ese proceso, que está previsto para juicio con jurado en abril, Musk reclama entre 79.000 y 134.000 millones de dólares por supuestas “ganancias indebidas” derivadas de la transición de OpenAI hacia un modelo con fines de lucro.


    Un enfrentamiento que trasciende los tribunales

    Más allá de los tecnicismos legales, la rivalidad entre Musk y OpenAI se ha trasladado también al terreno público, con declaraciones cruzadas y críticas abiertas en redes sociales y comunicados oficiales.

    Con la desestimación de esta demanda, OpenAI gana una batalla importante. Sin embargo, la guerra legal y estratégica entre ambas partes está lejos de terminar.

  • Hackers usan Claude de Anthropic para robar 150 GB de datos del gobierno de México

    Claude de Anthropic fue utilizado para hackear al Gobierno de México

    Un nuevo caso vuelve a encender las alarmas sobre el uso indebido de la inteligencia artificial. Según un informe de Bloomberg, un hacker explotó el chatbot Claude de Anthropic para atacar dependencias del gobierno mexicano, logrando sustraer 150 GB de datos oficiales.

    Entre la información comprometida habría:

    • Registros fiscales de contribuyentes
    • Credenciales de empleados gubernamentales
    • Datos internos sensibles

    Cómo se utilizó la IA para vulnerar redes gubernamentales

    De acuerdo con la firma de ciberseguridad Gambit Security, el atacante utilizó Claude para:

    • Detectar vulnerabilidades en redes gubernamentales
    • Generar scripts de explotación
    • Automatizar procesos de robo de información
    • Elaborar planes detallados de ataque

    El ataque comenzó en diciembre y se prolongó aproximadamente un mes.

    Según Curtis Simpson, director de estrategia de Gambit Security, el chatbot llegó a generar miles de informes técnicos con instrucciones listas para ejecutarse, indicando qué sistemas atacar y qué credenciales utilizar.


    Jailbreak mediante prompts repetidos

    Inicialmente, Claude se negó a colaborar alegando violaciones a sus políticas de seguridad. Sin embargo, el hacker insistió reiteradamente hasta lograr que el modelo cediera, en lo que se describe como un proceso de jailbreak mediante ingeniería de prompts.

    Anthropic confirmó que investigó el incidente, bloqueó las cuentas involucradas y aseguró que su modelo más reciente, Claude Opus 4.6, incorpora herramientas adicionales para prevenir este tipo de abuso.


    También se habría utilizado ChatGPT

    El reporte indica que el atacante complementó las acciones con ayuda de ChatGPT, desarrollado por OpenAI.

    En este caso, el chatbot habría sido empleado para:

    • Obtener información sobre movimiento lateral en redes
    • Identificar credenciales necesarias para acceder a sistemas
    • Buscar métodos para evitar detección

    OpenAI señaló que detectó intentos de violación de sus políticas y que sus herramientas se negaron a colaborar.


    ¿Quién está detrás del ataque?

    El responsable no ha sido identificado. Gambit Security sugiere que podría existir vínculo con un gobierno extranjero, aunque no hay atribución oficial.

    Por su parte:

    • La agencia digital nacional de México no ha emitido comentarios específicos sobre la brecha.
    • El gobierno de Jalisco negó haber sido afectado, señalando que solo redes federales estuvieron implicadas.
    • El Instituto Nacional Electoral también negó accesos no autorizados recientes.

    Cabe destacar que Gambit identificó al menos 20 vulnerabilidades de seguridad durante su investigación.


    Debate sobre la seguridad en la era de la IA

    El incidente ocurre en un momento delicado para Anthropic. Recientemente, la empresa modificó su compromiso histórico de no entrenar modelos sin poder garantizar previamente su seguridad, sustituyéndolo por una política centrada en igualar a competidores en estándares de protección y transparencia.

    No es la primera vez que Claude es vinculado a actividades maliciosas. El año pasado, actores en China manipularon el sistema para intentar infiltrarse en múltiples objetivos globales.

    Este caso reabre el debate sobre:

    • Los límites de los modelos de IA generativa
    • La eficacia real de sus “guardrails” (medidas de seguridad)
    • La responsabilidad de las empresas desarrolladoras
    • La necesidad de marcos regulatorios más sólidos

    A medida que los modelos se vuelven más potentes, también aumentan los riesgos asociados a su mal uso. El robo de 150 GB de datos gubernamentales en México podría convertirse en uno de los casos más emblemáticos sobre los peligros emergentes en la llamada “era dorada” de la inteligencia artificial.

  • Anthropic asegura que DeepSeek y otras empresas chinas aprovechan el poder de Claude para entrenar su IA

    Claude
    Anthropic se queja del robo de IA

    El gran robo de la Inteligencia Artificial: Anthropic acusa a DeepSeek y rivales chinos de copiar el talento de Claude

    La empresa ha levantado la voz de alarma ante las «campañas a escala industrial» de sus competidores extranjeros. Estos buscan recolectar ilícitamente su brillante tecnología de inteligencia artificial. Anthropic, creador del popular chatbot Claude ha acusado formalmente a tres grandes firmas chinas de IA. Hablamos de DeepSeek, Moonshot y MiniMax. Anthropic afirma que estas empresas ejecutan ataques masivos de «destilación». El objetivo es acelerar el desarrollo de sus propios modelos.

    En el sector de la IA, la destilación es un proceso fascinante. Los desarrolladores entrenan un modelo más pequeño usando los resultados de un sistema más avanzado.

    Anthropic reconoce la validez de este método de entrenamiento. Sin embargo, los portavoces de la empresa afirman con firmeza que sus rivales usan esta técnica como un atajo injusto. Así adquieren capacidades poderosas en un tiempo récord. Además, así logran reducir drásticamente el enorme coste del desarrollo desde cero.

    Las investigaciones de Anthropic revelan datos sorprendentes. Los tres laboratorios chinos crearon unas 24.000 cuentas fraudulentas. Luego, orquestaron más de 16 millones de llamadas a Claude (probablemente a través del API). Anthropic vincula estas campañas con empresas específicas con «un alto nivel de confianza». Para ello, sus expertos correlacionaron direcciones IP y analizaron metadatos. También usaron modernos indicadores de infraestructura. Además, otros líderes de la industria aportaron pruebas para confirmar estos mismos comportamientos.

    Un poco de historia

    DeepSeek revolucionó recientemente la industria tecnológica. Sus desarrolladores lanzaron modelos altamente eficientes y sorprendentemente poderosos. Ahora, esta empresa es el foco principal de las acusaciones. Anthropic asegura que DeepSeek realizó más de 150.000 llamadas al API. Estos buscaban copiar las avanzadas capacidades de razonamiento de Claude. Además, Anthropic acusa a DeepSeek de usar a Claude para esquivar sus propias restricciones regionales. La empresa china pidió a la IA estadounidense generar respuestas seguras contra la censura. Estas preguntas trataban temas políticos sensibles, como disidentes, líderes del partido y autoritarismo.

    Las implicaciones de esta minería digital van mucho más allá del robo corporativo. Anthropic advierte de un gran riesgo. Los modelos destilados ilícitamente pierden las estrictas e importantes barreras de seguridad de la IA original. La empresa alerta de que esta brecha podría ayudar a gobiernos autoritarios. Estos podrían integrar inteligencia artificial de primer nivel en sistemas militares y de vigilancia masiva. Esto podría impulsar operaciones cibernéticas ofensivas y campañas de desinformación.

    Anthropic comparte esta lucha con otros gigantes tecnológicos. Muchos competidores extranjeros intentan aprovecharse de la investigación estadounidense. A principios del año pasado, OpenAI tomó medidas contundentes. La empresa bloqueó cuentas sospechosas tras detectar que firmas rivales destilaban sus modelos. La semana pasada, OpenAI apoyó las actuales preocupaciones de Anthropic. Sus portavoces enviaron una enérgica carta a los legisladores estadounidenses. En ella, acusan a DeepSeek de «aprovecharse gratuitamente» de la innovación en IA de Estados Unidos.

    ¿Cuál será la respuesta de Anthropic?

    Como respuesta proactiva, Anthropic promete actualizar su infraestructura. Sus ingenieros harán que los ataques de destilación sean más difíciles de ejecutar y mucho más fáciles de identificar. Sin embargo, esta controversia resalta la compleja realidad del entrenamiento de modelos de IA.

    Por un lado, Anthropic señala a sus rivales extranjeros por copiar sus datos. Sin embargo, al mismo tiempo, la empresa libra sus propias batallas legales en casa. Actualmente, varios editores de música han demandado al laboratorio de IA. Ellos acusan a Anthropic de usar copias ilegales de canciones protegidas por derechos de autor para entrenar a Claude.

  • La nueva app ‘Sales Coach’ de Apple ya está en la App Store y reemplaza a ‘SEED’

    Apple lanza la app Sales Coach
    Apple lanza la app Sales Coach

    Apple lanza la app ‘Sales Coach’ con IA para socios de ventas y servicios

    Apple presentó oficialmente su nueva aplicación «Sales Coach» para iPhone y iPad. Esta herramienta integral busca empoderar a los empleados de ventas y servicios en todo el mundo. La app llega como una actualización directa de la antigua aplicación «SEED». Sales Coach ofrece una interfaz renovada y funciones de vanguardia. Así, el personal puede manejar las conversaciones con los clientes con total confianza y entusiasmo.

    La aplicación aparece en la App Store, pero funciona como una herramienta estrictamente interna. Apple la creó específicamente para los empleados de la Apple Store, los Proveedores de Servicios Autorizados Apple (AASP) y los socios de ventas globales. El público general no tiene acceso a ella. Por ello, los nuevos usuarios deben ingresar un código de socio seguro para completar el registro. Una vez dentro, la plataforma ofrece una gran cantidad de excelentes recursos técnicos y de ventas. Esto mantiene al personal al día sobre anuncios de productos, cambios en los programas y consejos de ventas súper efectivos.

    Los cambios más notables en Sales Coach van mucho más allá de su nuevo nombre. La aplicación adopta el elegante lenguaje de diseño «Liquid Glass» de Apple. Esto brinda una experiencia de usuario moderna e intuitiva. Sin embargo, la característica estrella es un nuevo chatbot impulsado por inteligencia artificial.

    Los usuarios acceden a este asistente inteligente a través de una nueva pestaña llamada «Ask» (Preguntar). Funciona de manera similar al chatbot de la app Soporte de Apple. Por lo que sabemos, Apple entrenó esta IA exclusivamente con sus materiales y documentación oficiales. Esto permite a los empleados obtener respuestas precisas al instante. Pueden consultar sobre capacidades específicas del iPhone, detalles de software y características de toda la fabulosa línea de productos de Apple.

    El chatbot probablemente usa tecnologia RAG

    El hecho de que el chatbot fuera entrenado con documentación interna parece indicar que este chatbot está basado en tecnología RAG, una forma sencilla de IA que muchas empresas están adoptando.

    Para los usuarios actuales, la transición resulta completamente fluida. No necesitan realizar una nueva descarga. Al actualizar la aplicación SEED actual, esta se transforma automáticamente en Sales Coach. Además de las aplicaciones para iOS y iPadOS, Apple también habilitó el acceso web en salescoach.apple.com. Esto asegura que los socios minoristas tengan todos los recursos necesarios para triunfar.

  • La actividad de ChatGPT de la asesina de Tumbler Ridge fue analizada internamente 7 meses antes de la tragedia

    ¿Se podía haber evitado la tragedia?

    Hace unos días, un remoto pueblo de montaña de Canadá fue sacudido por por una tragedia. En un tiroteo escolar, un asaltante armado mató al menos a ocho personas.

    La policía encontró a seis personas muertas y docenas heridas al llegar a la escuela secundaria de Tumbler Ridge, una ciudad de tan solo 2.400 personas en el noreste de la provincia de Columbia Británica, a primera hora de la tarde del martes.

    Se cree que la presunta asesina, que fue encontrada muerta en la escuela, mató a otras dos personas más antes de suicidarse, ya que se encontraron dos cuerpos más en una casa en el municipio.

    El rol de OpenAI

    A raíz de esta tragedia, la investigación se ha centrado en la actividad en línea de la sospechosa, Jesse Van Rootselaar, revelando detalles acerca de su uso de ChatGPT.

    OpenAI, la empresa que ofrece ChatGPT, confirmó que en junio de 2025 detectó que una cuenta vinculada a Van Rootselaar violó las políticas de uso de la plataforma. Posteriormente, la cuenta fue dada de baja.

    Según OpenAI, la actividad de la asesina incluía descripciones de violencia causada por armas de fuego. Esto activó el sistema de revisión automatizado del chatbot, y generó preocupación entre los empleados de OpenAI de que estas publicaciones pudieran ser la antesala de actos de violencia en el mundo real.

    Si bien algunos empleados instaron a los líderes de la empresa a contactar a las fuerzas del orden, OpenAI finalmente decidió no hacerlo. La empresa determinó que la situación no era suficientemente seria, ya que no involucraba un «riesgo inminente y creíble» o la planificación activa de daños físicos graves a otros.

    La portavoz de OpenAI, Kayla Wood, declaró que el objetivo de la empresa es buscar un justo balance entre privacidad y seguridad, con el objetivo de evitar crear problemas innecesarios involucrando demasiado a menudo a las fuerzas del orden.

    OpenAI se puso en contacto con la policía después del tiroteo

    A pesar de haber tomado una decisión equivocada en este caso, la empresa se comunicó voluntariamente con la Policía Real Montada de Canadá (RCMP) y les dió información sobre Van Rootselaar y su uso de ChatGPT, después del tiroteo.

    El sargento de la RCMP, Kris Clark, confirmó que la plataforma se puso en contacto con ellos después del incidente. Afirmó que la policía está recopilando y procesando metódicamente todo tipo de pruebas, incluyendo la revisión exhaustiva de los dispositivos electrónicos de la sospechosa, para analizar sus actividades en línea, en particular en las redes sociales. Por otra parte, YouTube y Roblox han confirmado que habían eliminado cuentas y contenido asociadas con la sospechosa.

    ¿OpenAI fue responsable?

    Estas situaciones son complicadas y es difícil echarle la culpa a ChatGPT.

    Lo positivo es que tienen un sistema para detectar situaciones preocupantes y que aparentemente funcionó correctamente, generando una alerta a tiempo.

    Pedirle a ChatGPT (o a cualquier otra empresa de IA o de redes sociales) que determine exactamente cuando es necesario informar a las autoridades puede ser mucha responsabilidad para una empresa comercial.

    Por otro lado, informar de cualquier problema a la policía tiene implicaciones de privacidad. Además de que es poco probable que ellos tengan la capacidad de atender todas las alertas que pudieran llegarles. Habrá que ver como deciden los legisladores atender este tipo de situaciones.

    Comunicado del padre

    El padre de la asesina emitió un comunicado en el que expresó su tristeza y enfatizó que estaba distanciado de su hija. Afirmó que ya no estaba involucrado en su vida y que ella ya no usaba el apellido Van Rootselaar. También transmitió su desconsuelo por el dolor causado a personas inocentes y al pueblo de Tumbler Ridge.

    La RCMP señaló que Jesse Van Rootselaar nació con sexo masculino pero que había comenzado su transición de sexo.

  • Apple lanza una nueva versión beta de Xcode 26.3

    Xcode 26.3
    Xcode 26.3

    Últimos cambios antes del lanzamiento oficial

    Apple acaba de lanzar la segunda versión Release Candidate de Xcode 26.3. He estado usando la primera versión desde que fue anunciada por Apple y es una mejora importantísima con respecto a la versión 26.2.

    Antes de Xcode 26.3, utilizar agentes de IA dentro de Xcode era una experiencia frustrante. Personalmente había dejado de usar Xcode y había adoptado Antigravity de Google. Esta decisión se debía a muchos motivos, pero uno de los más importantes es que no era posible ni siquiera elegir el modelo de Anthropic con el que quería trabajar.

    A principios de este mes, Apple anunció la nueva versión de Xcode 26.3, la cual se integraría de forma nativa con herramientas de programación basadas en agentes de IA como Claude Agent de Anthropic y Codex de OpenAI. El cambio ha sido dramático. He abandonado Antigravity y ya no salgo de Xcode para nada.

    Esto no significa que no hubiera pequeños problemas propios de una versión beta. Por ejemplo, a veces el agente de Claude decidía realizar tareas utilizando comandos de Terminal, en lugar de usar las integraciones con Xcode, pero son temas menores.

    Xcode 26.3 se retrasa

    El pasado 11 de febrero, Apple lanzó Xcode 26.3 Release Candidate 1 aproximadamente al mismo tiempo que las versiones RC de macOS 26.3. Por lo tanto, los desarrolladores esperábamos que cuando esos sistemas operativos fueron lanzados oficialmente el 11 de febrero, Xcode 26.3 también estaría disponible. Sin embargo, no fue el caso. Probablemente todavía faltaban por afinar algunos detalles.

    Apple no ha informado acerca de las diferencias existentes entre Xcode 26.3 RC 1 y RC 2, pero probablemente han estado trabajando en resolver esos problemitas que habíamos detectado los desarrolladores..

    Sea como fuere, la versión 26.3 de Xcode ha recibido grandes elogios de la comunidad de desarrolladores que la han estado utilizando desde que se liberó la primera versión. Con el lanzamiento hoy de la versión RC 2, es razonable esperar que si no surjen más imprevistos, sea posible descargar la versión final en algún momento de la próxima semana.

  • OpenAI lanzará un altavoz inteligente con IA en 2027

    El logotipo de OpenAI
    El logotipo de OpenAI

    OpenAI quiere competir con Alexa, Google y Siri

    OpenAI, la empresa que revolucionó el mundo de la IA generativa con el lanzamiento de ChatGPT, pretende diversificarse aventurándose en el mercado del hardware, con planes de lanzar una serie de dispositivos impulsados por IA. El primer producto que esperan lanzar es un altavoz inteligente, que podría llegar al mercado en 2027. Este ambicioso proyecto está respaldado por un equipo dedicado de más de 200 empleados y marca un paso significativo para OpenAI más allá de su enfoque tradicional, centrado en el software.

    Se prevé que el altavoz inteligente, con un precio entre $200 y $300, cuente con una variedad de funciones diseñadas para sumergir a los usuarios en una experiencia impulsada por la IA. Equipado con una cámara, el dispositivo tiene como objetivo comprender su entorno identificando objetos en su vecindad e incluso interpretando conversaciones cercanas. Esta recopilación de información visual y auditiva permite un nivel más profundo de interacción y respuestas personalizadas. Además, se rumorea que la cámara incorpora un sistema de reconocimiento facial similar al Face ID de Apple, lo que podría permitir a los usuarios autenticar compras directamente a través del altavoz.

    OpenAI trabaja también en otros dispositivos

    Más allá del altavoz inteligente, OpenAI también está explorando otras posibilidades de hardware, incluidas gafas inteligentes y una lámpara inteligente. Si bien se han desarrollado prototipos de la lámpara inteligente, su futuro sigue siendo incierto. Las gafas inteligentes, destinadas a competir con las ofertas de Meta, están proyectadas para un lanzamiento posterior, potencialmente en 2028.

    Este impulso hacia el hardware está significativamente influenciado por los problemas que enfrenta OpenAI para generar los flujos de efectivo que requiere su operación. En tiempos recientes ha enfrentado una competencia feroz tanto por el lado de Google como por parte de Anthropic que le han quitado importantes partes de mercado, pero que además ponen en riesgo esa percepción de liderazgo en temas de IA que la empresa tenía con sus clientes.

    El mercado está muy competido

    Sin embargo, ganar dinero en el mercado de los altavoces inteligentes es complicado. Por un lado está Amazon que ha perdido billones de dólares promoviendo los dispositivos Alexa a precios muy bajos y por otro lado está Apple que dispone de un rico ecosistema que hace que sus clientes prefieran los productos de la compañía. Entre los dos, está Google, un gigante con gran experiencia en IA y que en tiempos recientes parece haber rebasado a OpenAI en cuanto a calidad de sus modelos, diferencia que se podría acrecentar con el próximo lanzamiento de Gemini 3.1.

    Aún así, OpenAI parece creer que lo puede lograr. Por eso adquirieron la firma de diseño de Jony Ive, io Products. Ive, el ex Director de Diseño de Apple, es ampliamente reconocido por dar forma a la estética de diseño icónica de Apple. La apuesta de OpenAI es clara, tienen la intención de lanzar dispositivos visualmente atractivos y fáciles de usar.

    Existen aún muchos interrogantes

    Aunque la estrategia es clara, la colaboración no ha estado exenta de problemas. Se ha sabido por ejemplo que la integración de la filosofía de diseño de Ive con el equipo de hardware existente de OpenAI ha provocado cierta fricción.

    También existe preocupación con respecto a la potencia informática necesaria para operar dispositivos de IA a escala. Finalmente, hay dudas acerca de como se protegerá la privacidad con unos dispositivos que están constantemente escuchando y observando.

    A pesar de estos obstáculos, la incursión de OpenAI en el ámbito del hardware promete ser paso importante en la rápida evolución de la IA y su integración en nuestra vida diaria.

    El éxito de estos dispositivos probablemente dependerá de cómo OpenAI logrará atender las crecientes preocupaciones acerca de la privacidad de los consumidores y sobre todo de su capacidad para ofrecer un valor convincente de forma sostenida a sus clientes ya que es probable que además del precio del altavoz haya que pagar una suscripción mensual.

  • Google Play usó IA para ayudar a bloquear 1.75 millones de apps maliciosas en 2025

    Google Play usó IA para bloquear reseñas falsas y detectar aplicaciones maliciosas

    También evitó que se colaran falsas reseñas y canceló más de 80,000 cuentas de desarrolladores.

    Google ha anunciado que, con la ayuda de la IA, bloqueó 1,75 millones de aplicaciones que infringían sus políticas en 2025, una cifra significativamente inferior a los 2,36 millones de 2024. La disminución de este año, según afirma, se debe a que sus «protecciones multicapa impulsadas por la IA» están disuadiendo a hackers de siquiera intentar publicar aplicaciones maliciosas.

    La IA revisa todas las aplicaciones

    Google dijo que ahora ya ejecuta más de 10.000 controles de seguridad en cada aplicación y que las sigue verificando después de su publicación en Google Play. Los modelos de IA generativa más modernos de Google ayudan a los revisores humanos a descubrir patrones maliciosos más rápidamente. La compañía también bloqueó 160 millones de valoraciones ficticias, evitando una caída promedio de 0,5 estrellas en la calificación de las aplicaciones que fueron objeto de bombardeos automatizados de reseñas. Finalmente, Google impidió que 255.000 aplicaciones obtuvieran acceso excesivo a datos confidenciales de los usuarios en 2025, frente a los 1,3 millones del año anterior.

    Mientras tanto, Google Play Protect, el sistema de defensa de Android creado por la compañía, detectó más de 27 millones de nuevas aplicaciones maliciosas, ya sea advirtiendo a los usuarios o impidiéndoles que se ejecuten. La compañía agregó que la protección contra el fraude mejorada de Play Protect ahora cubre 2.800 millones de dispositivos Android en 185 mercados y que bloqueó 266 millones de intentos de instalación usando “side-loading”, un sistema potencialmente riesgoso, aunque también puede ser utilizado de forma legítima.

    «Iniciativas como la verificación de desarrolladores, los controles pre-revisión obligatorios y los requisitos de pruebas han elevado el listón para el ecosistema de Google Play y han reducido significativamente las opciones para los desarrolladores malintencionados, dijo la compañía en su blog de seguridad. «Este año, continuaremos invirtiendo en nuevas defensas apoyadas por la IA para mantenernos a la vanguardia de las amenazas emergentes y equipar a los desarrolladores de Android con las herramientas que necesitan para crear aplicaciones de forma segura».

    Una cuestión de escala

    Cuando uno observa los números tan altos con los que debe lidiar Google Play, se entiende que se necesite utilizar tecnología como la IA para poder responder en tiempos aceptables. Sin embargo, en este tipo de comunicados triunfalistas, donde todo es positivo, no se suele hablar de la pesadilla que puede suponer para un desarrollador legítimo ver su aplicación rechazada por la IA y no saber cómo apelar la decisión.

    El costo de la seguridad para Google

    Google ha justificado constantemente sus tarifas relativamente altas en las compras y suscripciones de aplicaciones destacando sus inversiones en la seguridad de las aplicaciones. Claro que al automatizar todo el proceso de revisión mediante el uso de la IA, esos costos deberían bajar. Veremos si eso se traduce en una reducción de las comisiones que deben pagar los desarrolladores.

  • Google lanza Gemini 3.1 Pro y alcanza evaluaciones récord en materia de razonamiento

    Gemini 3.1 Pro
    Gemini 3.1 Pro

    Gemini 3.1 Pro: Una Nueva Era de Razonamiento y Resolución de Problemas con IA

    Google ha presentado Gemini 3.1 Pro, una actualización significativa de su modelo de IA insignia, diseñado para abordar las tareas más complejas con capacidades de razonamiento sin precedentes. Esta inteligencia mejorada ahora se está implementando en las plataformas para consumidores y desarrolladores de Google, llevando la IA avanzada a las aplicaciones cotidianas.

    Las evaluaciones de Gemini 3.1 son excelentes

    Gemini 3.1 Pro representa un salto sustancial en cuanto a capacidad de razonamiento, demostrado por su rendimiento en pruebas especialmente diseñadas para evaluar las capacidades de los LLMs.

    En particular, en ARC-AGI-2, una prueba que evalúa la capacidad de un modelo para resolver patrones lógicos completamente nuevos, Gemini 3.1 Pro logró una puntuación del 77,1%. Esto duplica con creces el rendimiento de razonamiento de su predecesor, Gemini 3 Pro, y supera a competidores como GPT-5.2 y Claude Opus 4.6. El modelo también lidera en la mayoría de los puntos de referencia rastreados en comparación con estos rivales, incluido un resultado del 94,3% en GPQA Diamond, una prueba de razonamiento científico a nivel de posgrado.

    Los resultados obtenidos en estas pruebas son importantes porque reflejan la fiabilidad del modelo en el mundo real. Las tareas de estilo ARC examinan la generalización y la inducción de patrones, lo que sugiere habilidades mejoradas en la síntesis de datos, la planificación y las instrucciones de varios pasos. GPQA Diamond mide la comprensión a nivel de posgrado en dominios científicos, lo que indica un razonamiento mucho más fiable y un comportamiento menos frágil cuando recibe prompts con los que no está familiarizado.

    En esencia, los resultados más sólidos en estas pruebas se correlacionan de forma directa con un rendimiento más fiable en tareas complejas.

    Evaluaciones de distintos modelos de IA generativa

    Mejoras en el razonamiento avanzado

    Gemini 3.1 Pro está diseñado para escenarios en los que una respuesta simple no es suficiente. En ese caso usa razonamiento avanzado y lo aplica para resolver incluso los retoos más difíciles. Esta inteligencia mejorada puede ayudar en situaciones prácticas, ya sea que esté buscando una explicación visual clara de un tema complejo, una forma de sintetizar datos en una sola vista o dar vida a un proyecto creativo.

    Por ejemplo, el modelo es capaz de generar SVG animados listos para la web directamente desde una instrucción de texto, construir paneles de control aeroespaciales en vivo configurando transmisiones de telemetría públicas e incluso codificar experiencias interactivas 3D complejas. Esto va a revolucionar sin duda los libros de texto en los próximos años.

    Una de las innovaciones clave en Gemini 3.1 Pro es su uso del pensamiento dinámico. El modelo es capaz de ajustar la cantidad de razonamiento interno que aplica en función de la complejidadl problema. Las preguntas sencillas obtienen respuestas rápidas, mientras que los problemas complejos que deben resolverse paso a paso activan cadenas de procesamiento más profundas. Los desarrolladores pueden incluso controlar este comportamiento a través de una configuración en la API, estableciendo la profundidad máxima del razonamiento interno.

    Todavía hay oportunidades de mejora

    Si bien Gemini 3.1 Pro sobresale en muchas áreas, Google reconoce que se queda atrás en ciertas evaluaciones de herramientas de codificación agentic, como SWE-Bench Verified, que mide la capacidad de corregir problemas de software del mundo real. Para los equipos centrados en la corrección automatizada de errores o la refactorización de aplicaciones completas, la combinación de agentes de codificación especializados con IDEs altamente integrados aún pueden superar a los modelos de chat de generalistas, por lo menos hasta que mejoren la orquestación y la fiabilidad de las herramientas.

    Con Gemini 3.1 Pro, Google ha reducido, si no es que invertido, varias de las tablas de clasificación más escrutadas a su favor, particularmente en razonamiento abstracto y control de calidad científico. Si sus tareas se centran en el análisis complejo, la síntesis de múltiples fuentes y las explicaciones técnicas difíciles, las puntuaciones de Gemini 3.1 Pro deberían convencerlo o convencerla de usarlo en primera opción. Sin embargo, las cosas están cambiando tan rápidamente que esta ventaja puede ser solo momentánea.

    Gemini 3.1 Pro está disponible ahora

    Gemini 3.1 Pro está disponible en la aplicación Gemini de Google y en la web. También es accesible en NotebookLM para suscriptores de planes AI Pro o AI Ultra. Los desarrolladores y las empresas pueden acceder a 3.1 Pro ahora en vista previa usando la API de Gemini a través de AI Studio, Antigravity, Vertex AI, Gemini Enterprise, Gemini CLI y Android Studio.