gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • OBLITERATUS: la herramienta de código abierto que elimina los “guardrails” de la IA con un solo clic

    Obliteratus promete liberar la IA de sus cadenas
    Obliteratus promete liberar la IA de sus cadenas

    ¿Jaque, mate?

    Si utilizas con frecuencia modelos de lenguaje de gran tamaño (LLM), seguramente te has encontrado con la frustrante respuesta: “No puedo ayudarte con eso.” Durante años, este tipo de rechazo fue visto casi como una forma de moralidad digital integrada, una señal de que la IA “sabía” distinguir entre lo correcto y lo incorrecto. Sin embargo, investigaciones recientes han demostrado que esta censura no es una brújula moral: es simplemente un patrón matemático.

    Ahora, un investigador conocido como Pliny the Liberator ha convertido esa idea en una herramienta práctica. En marzo de 2026 publicó en GitHub OBLITERATUS, un proyecto de código abierto diseñado para mapear, comprender y eliminar quirúrgicamente los comportamientos de rechazo en modelos de lenguaje, en muchos casos con un solo clic.

    La geometría del rechazo

    Para entender cómo funciona OBLITERATUS, hay que entender cómo procesan la información los LLMs. Dentro de una red neuronal, el texto se transforma en largas listas de valores que se mueven en espacios matemáticos de miles de dimensiones. Cada rasgo, desde la cortesía hasta la capacidad técnica, corresponde a una dirección específica dentro de ese espacio abstracto.

    El rechazo es simplemente otra de esas direcciones.

    OBLITERATUS analiza lo que sus creadores llaman la “geometría del rechazo”. El sistema identifica los métodos de alineamiento utilizados durante el entrenamiento del modelo, como el aprendizaje con retroalimentación humana (RLHF) o la optimización por preferencias directas (DPO), y localiza los pesos neuronales responsables de generar respuestas de negativa.

    Una vez identificados esos “vectores de rechazo”, la herramienta aplica técnicas conocidas como abliteration. En lugar de recurrir a complejas estrategias de prompt engineering o “jailbreaks”, el sistema elimina o desvía directamente las representaciones internas que producen las negativas. Lo notable es que esto se hace sin volver a entrenar el modelo, preservando su capacidad de razonamiento y lenguaje mientras se eliminan los filtros.

    Un pipeline profesional accesible para todos

    El alcance de OBLITERATUS es considerable. La herramienta incorpora 13 métodos distintos de edición de pesos, probados en 116 modelos de código abierto a lo largo de 837 experimentos antes de su lanzamiento.

    El sistema ofrece un flujo de trabajo completo y transparente. Los usuarios pueden:

    • Analizar los estados internos de un modelo
    • Visualizar en qué capas aparece el comportamiento de rechazo
    • Aplicar técnicas avanzadas de extracción como PCA, autoencoders dispersos o SVD blanqueado
    • Medir el equilibrio entre cumplimiento y coherencia antes de aplicar cambios

    A pesar de su complejidad técnica, OBLITERATUS busca ser accesible. Incluye una interfaz basada en Gradio alojada en Hugging Face Spaces que permite modificar un modelo, evaluarlo y compararlo con su versión original sin escribir una sola línea de código.

    Para investigadores más avanzados, el proyecto también ofrece una API en Python que expone todos los artefactos intermedios, desde tensores de activación hasta matrices de alineamiento entre capas.

    Un experimento científico distribuido

    OBLITERATUS también funciona como un experimento colectivo de investigación. Los usuarios que ejecutan la herramienta con telemetría activada contribuyen datos anónimos de rendimiento a un conjunto de datos en crecimiento.

    Este repositorio colaborativo permite mapear cómo aparecen las direcciones de rechazo en diferentes arquitecturas y configuraciones de hardware, generando información a una escala difícil de alcanzar para un único laboratorio.

    El límite de los modelos cerrados

    Existe, sin embargo, una limitación importante: OBLITERATUS solo funciona con modelos de “pesos abiertos”.

    Como la herramienta necesita acceso directo a los parámetros del modelo para modificarlos, sistemas propietarios como ChatGPT, Claude o Gemini quedan fuera de su alcance.

    En cambio, familias de modelos abiertos como LLaMA, Mistral y Phi sí pueden ser modificadas fácilmente.

    ¿Cómo usar estos modelos de forma local en su propia computadora?

    La mejor forma de hacerlo es usar Ollama. Este programa permite usar LLMs de forma local.

    Ollama es bastante amigable, pero requiere usar la línea de comando para algunas funciones. Por eso, es mejor utilizar un front-end gráfico para Ollama que simplifique al máximo el uso de esta herramienta. Si tienen una Mac, les recomiendo LocalIntelligence, un programa que yo mismo desarrollé y que está disponible en el Apple App Store o en mi site personal (si quieren usar MCP con un servidor local).

    Un debate ético inevitable

    La existencia de una herramienta que elimina los mecanismos de seguridad con un solo clic plantea interrogantes éticos inevitables.

    Los creadores de OBLITERATUS sostienen que los filtros actuales son instrumentos demasiado imprecisos, que bloquean investigaciones legítimas, escritura creativa o pruebas de seguridad junto con contenidos realmente dañinos. Según esta visión, el comportamiento de un modelo debería estar determinado por quienes lo despliegan, no por restricciones fijadas permanentemente durante su entrenamiento.

    Pero sus críticos advierten que facilitar la eliminación de salvaguardas puede transformar asistentes digitales prudentes en sistemas extremadamente complacientes, capaces de generar contenido sensible o peligroso sin restricciones.

    Sea visto como un triunfo de la ciencia abierta o como un riesgo para la seguridad de la IA, OBLITERATUS marca un cambio de paradigma. Ya no se trata solo de explorar los límites de los modelos conversando con ellos: ahora también es posible reescribir su ADN digital.

  • OpenAI lanza el modelo GPT-5.4

    OpenAI lanza GPT-5.4
    OpenAI lanza GPT-5.4

    OpenAI continúa acelerando el desarrollo de su inteligencia artificial. Apenas unos días después de presentar GPT-5.3 Instant, la compañía ha anunciado GPT-5.4, su nuevo modelo insignia orientado a tareas complejas y entornos profesionales.

    El modelo llega en dos variantes principales:

    • GPT-5.4 Thinking
    • GPT-5.4 Pro

    Ambas versiones reflejan una evolución clara en la estrategia de OpenAI: pasar de simples chatbots conversacionales a agentes digitales capaces de trabajar de forma autónoma.

    La rápida sucesión de lanzamientos deja claro que la compañía intenta mantenerse por delante de competidores como Gemini 3.1 Pro de Google y Claude Opus 4.6 de Anthropic.


    La era del uso nativo del ordenador

    Una de las novedades más importantes de GPT-5.4 es su capacidad nativa para utilizar un ordenador.

    Por primera vez en un modelo principal de OpenAI, la IA puede:

    • Ejecutar comandos de ratón y teclado
    • Navegar por interfaces de escritorio
    • Interpretar capturas de pantalla de aplicaciones
    • Interactuar con múltiples programas al mismo tiempo

    En la práctica, esto permite que el sistema realice tareas completas de forma autónoma, como:

    • Rellenar hojas de cálculo en Excel
    • Realizar investigaciones en la web
    • Generar presentaciones en PowerPoint
    • Combinar información entre varias aplicaciones

    El modelo funciona mediante un ciclo continuo de “construir-ejecutar-verificar-corregir”, lo que le permite revisar su propio trabajo y corregir errores automáticamente.

    Este enfoque responde a la creciente competencia en el mercado empresarial. Recientemente, Microsoft integró modelos de Anthropic en Microsoft Copilot dentro de Microsoft 365, tras comprobar que Claude generaba mejores hojas de cálculo y presentaciones que modelos anteriores de OpenAI.

    GPT-5.4 es la respuesta directa de OpenAI para intentar recuperar terreno en el sector corporativo.


    Una nueva interfaz para ajustar la planeación

    Con GPT-5.4 Thinking, OpenAI también cambia la forma en que los usuarios interactúan con la inteligencia artificial.

    En lugar de limitarse a ofrecer una respuesta final, el sistema muestra primero un plan detallado de su razonamiento y de las acciones que pretende realizar.

    Los usuarios pueden:

    • Observar ese plan en tiempo real
    • Corregirlo o ajustar pasos durante la ejecución
    • Guiar el proceso sin tener que empezar de nuevo con otro prompt

    Este enfoque resulta especialmente útil para tareas complejas o profesionales, donde un pequeño malentendido puede obligar a repetir todo el proceso.

    La función se está desplegando actualmente en ChatGPT web y Android, con soporte para iOS previsto próximamente.


    Un contexto masivo y mayor precisión

    Para soportar tareas complejas y procesos largos, GPT-5.4 incorpora:

    • Ventana de contexto de 1 millón de tokens
    • Capacidad para analizar bases de código completas
    • Procesamiento de grandes colecciones de documentos

    El modelo también introduce técnicas para compactar la ventana de contexto, que permiten mantener el contexto relevante durante tareas largas sin perder información clave. Esto es algo que ya hacía Anthropic.

    En tareas de investigación, GPT-5.4 destaca en consultas tipo “aguja en un pajar”, realizando múltiples rondas de búsqueda en internet para sintetizar información difícil de encontrar.

    OpenAI afirma además que es su modelo más fiable hasta la fecha, con una reducción de hasta 33 % en alucinaciones con respecto a GPT-5.2.

    En el benchmark profesional GDPval, que evalúa capacidades en áreas como finanzas, derecho y marketing, GPT-5.4 alcanzó un 83 % de éxito, frente al 70,9 % obtenido por su predecesor.


    Disponibilidad y precio

    El nuevo modelo está claramente orientado a profesionales, empresas y desarrolladores, por lo que no estará disponible para usuarios Free o Go.

    El despliegue se realizará gradualmente en:

    • ChatGPT
    • Codex
    • la API de OpenAI

    El calendario previsto es el siguiente:

    • GPT-5.4 Thinking será el modelo de razonamiento por defecto para suscriptores Plus, Team y Pro, reemplazando a GPT-5.2 Thinking en los próximos tres meses.
    • GPT-5.4 Pro, optimizado para cálculos matemáticos y científicos avanzados, estará disponible únicamente para Enterprise, Educación y clientes de API.

    Para desarrolladores, el modelo promete mayor eficiencia en tareas complejas con herramientas externas, aunque el precio también aumenta. El costo de un millón de tokens de entrada pasa a $2,50, frente a los $1,75 del modelo anterior.


    La apuesta empresarial de OpenAI

    Con aproximadamente 25 000 millones de dólares de ingresos anualizados y enormes inversiones en infraestructura de centros de datos, OpenAI necesita convertir su tecnología en un negocio sostenible.

    Al transformar ChatGPT de un simple asistente conversacional en un agente profesional capaz de realizar trabajo real, GPT-5.4 podría convertirse en la herramienta clave para consolidar la posición de OpenAI en el mercado empresarial y en el futuro de la inteligencia artificial. Sin embargo, no va a ser fácil, la competencia va a ser feroz.

  • NotebookLM de Google ahora convierte tus notas en videos cinematográficos totalmente animados

    Logo de Google
    Google presento la nueva funcionalidad de NotebookLM

    Presentaciones espectaculares con NotebookLM

    Tomar apuntes y organizar investigaciones acaba de recibir una mejora visual importante. Google ha lanzado oficialmente “Cinematic Video Overviews” para su servicio de inteligencia artificial NotebookLM, una función que permite transformar documentos escritos en videos animados e inmersivos.

    Diseñada para facilitar el aprendizaje y la comprensión de temas complejos, esta nueva herramienta añade una dimensión mucho más dinámica al estudio personal y a la creación de contenido.


    De simples presentaciones a narrativas visuales completas

    El lanzamiento representa un avance significativo respecto a la función Video Overviews introducida el año pasado.

    En su versión anterior, la herramienta generaba presentaciones básicas narradas con audio generado por IA. Ahora, los Cinematic Video Overviews van mucho más allá de las imágenes estáticas, creando visualizaciones detalladas y animaciones fluidas adaptadas al contenido del usuario.

    El objetivo es convertir notas, documentos o investigaciones en explicaciones visuales con estructura narrativa, facilitando la comprensión de información compleja.


    El papel de la IA: Gemini como “director creativo”

    La tecnología detrás de esta función combina varios modelos avanzados de Google, entre ellos:

    • Gemini 3
    • Nano Banana Pro
    • Veo 3

    Dentro de este sistema, Gemini actúa como un director creativo virtual, tomando cientos de decisiones narrativas y visuales para construir el video final.

    Entre otras tareas, el modelo decide:

    • La estructura narrativa más adecuada
    • El estilo visual
    • El ritmo de la animación
    • La coherencia entre las escenas

    El resultado es un video que no solo resume la información, sino que cuenta una historia basada en los documentos del usuario.


    Parte de la expansión de las herramientas generativas de Google

    La llegada de esta función forma parte de una rápida expansión del ecosistema de medios generativos de Google.

    En los últimos meses, la compañía también ha:

    • Actualizado su modelo de video Veo
    • Ampliado el acceso al generador de video Flow
    • lanzado el nuevo generador de imágenes Nano Banana 2
    • Presentado Project Genie, una herramienta experimental capaz de crear pequeños fragmentos jugables de videojuegos

    Este conjunto de avances muestra el creciente interés de Google por integrar generación de video, imágenes y experiencias interactivas dentro de sus herramientas de IA.


    Disponibilidad y límites de uso

    Los Cinematic Video Overviews ya están disponibles desde hoy tanto en web como en dispositivos móviles, incluyendo la app de NotebookLM disponible en la App Store para iPhone y iPad.

    Por ahora, la función:

    • Solo está disponible en inglés
    • Requiere una suscripción a Google AI Ultra (US$250 al mes)
    • Está limitada a usuarios mayores de 18 años

    Para garantizar la calidad y controlar el uso de recursos, Google establece un límite de hasta 20 videos generados por día.


    Una nueva forma de interactuar con la información

    Con esta actualización, NotebookLM apunta a convertirse en una herramienta más visual y pedagógica, capaz de transformar documentos tradicionales en explicaciones dinámicas.

    Ya sea para estudiantes (con mucho dinero) que desean visualizar material de estudio o profesionales que buscan presentar informes de forma más atractiva, esta función abre una nueva forma de interactuar con la información.

  • OpenAI lanza Codex para Windows

    OpenAI Codex, ahora para Windows
    OpenAI Codex, ahora para Windows

    Los usuarios de Windows no tuvieron que esperar mucho

    Tras un exitoso debut en macOS a principios de febrero, OpenAI ha lanzado oficialmente la versión para Windows de su aplicación independiente Codex. La herramienta ya había generado una gran expectación: la versión para Mac superó un millón de descargas en su primera semana y actualmente cuenta con 1,6 millones de usuarios activos semanales. Ahora, los más de 500.000 desarrolladores en lista de espera de Windows finalmente pueden acceder al asistente.


    Codex, un centro de control para agentes de IA

    Lo que diferencia a Codex de otros asistentes de programación es su enfoque. En lugar de limitarse a generar fragmentos de código, OpenAI describe la aplicación como “un centro de mando para agentes”.

    La idea es que los desarrolladores puedan coordinar múltiples agentes de IA trabajando en paralelo sobre una misma tarea. Estos agentes pueden colaborar en procesos como:

    • Generación y refactorización de código
    • Pruebas de errores
    • Automatización de tareas repetitivas
    • Exploración de repositorios complejos

    Para facilitar el uso, la aplicación incluye una sección llamada “Skills”, que agrupa instrucciones, scripts y recursos para conectar agentes con flujos de trabajo específicos.

    Aunque los usuarios pueden ver diferencias de código y abrir proyectos en su IDE favorito, la interfaz de Codex está diseñada principalmente para gestionar y supervisar agentes de IA.


    Diseñado específicamente para Windows

    OpenAI subraya que esta versión no es un simple port de macOS, sino una aplicación pensada para entornos reales de desarrollo en Windows.

    Entre sus características destacan:

    • Sandboxing nativo para ejecutar agentes de forma segura
    • Uso de tokens restringidos y control de acceso al sistema de archivos
    • Integración con entornos como PowerShell

    Para quienes prefieran otro entorno, Codex también permite ejecutar agentes a través de Windows Subsystem for Linux(WSL) y sus herramientas asociadas.

    Además, incluye funciones específicas del sistema, como una skill dedicada a WinUI para desarrolladores que crean aplicaciones nativas de Windows.


    Codex usa por modelos especializados en programación

    Bajo el capó, Codex funciona con los modelos más recientes de OpenAI orientados al desarrollo. El sistema utiliza por defecto GPT-5.3-Codex, aunque los usuarios pueden cambiar entre diferentes modelos según la tarea.

    Entre las opciones disponibles se incluyen:

    • GPT-5.3-Codex (predeterminado)
    • GPT-5.2-Codex
    • GPT-5.1-Codex-Max
    • GPT-5.2
    • GPT-5.1-Codex-Mini, optimizado para velocidad

    Los desarrolladores también pueden ajustar el nivel de razonamiento del modelo dependiendo de la complejidad o urgencia del trabajo.


    Experiencia multiplataforma sin interrupciones

    Para quienes trabajan en varios dispositivos, Codex mantiene sincronización completa entre plataformas. El historial de sesiones se guarda directamente en la cuenta de usuario, lo que permite iniciar un proyecto en macOS y continuarlo sin fricción en Windows.

    La aplicación ya está disponible y puede utilizarse en todos los planes de ChatGPT, incluidos Free, Go, Plus, Pro, Business, Enterprise y Edu.

    Con este lanzamiento, OpenAI amplía su apuesta por herramientas de desarrollo impulsadas por agentes, acercando su visión de programación asistida por IA a una base aún mayor de desarrolladores.

  • Apple Music lanza “Transparency Tags” para identificar música creada con IA

    Apple Music se prepara para una avalancha de música generada por la IA

    Apple Music se prepara para una avalancha de música generada por la IA

    La inteligencia artificial está transformando la industria musical a gran velocidad, y las plataformas de streaming buscan adaptarse con nuevas reglas.

    La música generada por la IA no es mala de por sí. Yo tengo un par de canciones generadas por IA que me gustan, en mi librería personal. Sin embargo, para no engañar a los consumidores, es importante saber si una canción ha sido creada por humanos o generada por la IA.

    En este contexto, Apple Music ha introducido un nuevo sistema de etiquetado para identificar contenido generado con IA. Bautizadas como “Transparency Tags”, estas etiquetas pretenden ofrecer mayor claridad sobre el papel que ha desempeñado la inteligencia artificial en cada lanzamiento.


    Cómo funcionan las “Transparency Tags”

    El nuevo sistema de metadatos cubre cuatro elementos creativos distintos dentro de una publicación musical. Según la comunicación enviada a sellos discográficos y distribuidores, las etiquetas deberán aplicarse cuando una “parte sustancial” del contenido haya sido creada con IA.

    Las categorías son:

    • Track: cuando una parte significativa de la grabación de audio ha sido generada por IA.
    • Composition: cuando la IA intervino de forma relevante en la letra o en la composición musical.
    • Artwork: para carátulas o gráficos (estáticos o animados) creados con IA.
    • Music Video: cuando los elementos visuales del videoclip han sido generados con IA.

    Un mismo lanzamiento puede llevar varias etiquetas. Apple ya ha actualizado sus especificaciones técnicas de entrega de contenido para incorporar estos nuevos metadatos.


    Un sistema basado en la autorregulación

    Apple considera que este etiquetado es un “primer paso concreto” hacia la transparencia que la industria necesita para definir buenas prácticas.

    Sin embargo, el sistema plantea interrogantes. La compañía deja en manos de los sellos discográficos y distribuidores la decisión sobre qué constituye exactamente “contenido generado por IA”. En la práctica, funciona como cualquier otro metadato, género, créditos o colaboradores, y se basa en la buena fe de quienes distribuyen la música, sin mecanismos automáticos de detección.


    Comparación con la competencia

    El movimiento de Apple llega en un momento en que el sector enfrenta una avalancha de música generada por IA.

    Spotify introdujo en septiembre de 2025 sus propias etiquetas de divulgación y adoptó una política estricta contra la suplantación vocal de artistas reales generada por IA.

    Por su parte, Deezer ha optado por un enfoque mucho más automatizado y agresivo. La plataforma desarrolló un sistema interno de detección de música generada por IA. Según su CEO, Alexis Lanternier, Deezer recibe más de 60.000 canciones creadas con IA cada día, muchas vinculadas a fraude de reproducciones. Su herramienta habría identificado ya más de 13,4 millones de pistas generadas artificialmente, y la empresa planea licenciar la tecnología a terceros.


    La estrategia más amplia de Apple en IA

    Apple no es ajena a la integración de inteligencia artificial en sus productos. Con el despliegue de Apple Intelligence, la compañía ha introducido herramientas creativas como Image Playground, que ya incorporan mecanismos de marcado de contenido generado por IA.

    Las nuevas etiquetas en Apple Music se alinean con esta estrategia de transparencia progresiva. Aunque por ahora carecen de detección automatizada o sanciones explícitas contra la suplantación de artistas, podrían sentar las bases para políticas más estrictas en el futuro.


    Un primer paso hacia la transparencia

    En plena expansión de la música generada por IA, lo que tiene implicaciones creativas, económicas y legales, Apple apuesta por un enfoque gradual basado en la divulgación y el uso de metadatos.

    La eficacia real del sistema dependerá de su adopción y cumplimiento por parte de la industria. Pero, al menos por ahora, las “Transparency Tags” marcan un intento claro de ofrecer a los oyentes algo cada vez más valioso en la era de la IA: saber qué están escuchando realmente.

  • ¿Pueden las grandes empresas de IA evitar que suba el recibo de luz de los norteamericanos?

    IA
    La IA ha hecho subir el costo de la energía eléctrica de muchos hogares norteamericanos

    ¿Quién está pagando el aumento del consumo eléctrico por la IA en EEUU?

    Para los lectores latinoamericanos o europeos, este artículo puede resultar incomprensible sin un poco de contexto. En gran parte de Latinoamérica, los precios de la energía eléctrica están regulados y son totalmente independientes del precio del consumo eléctrico comercial. En EEUU, la situación es diferente y depende de la oferta y de la demanda. Por lo que el aumento del consumo empresarial tiene una repercusión directa sobre e precio de la electricidad residencial.

    En EEUU, el auge de la inteligencia artificial generativa es impresionante, pero su expansión requiere cantidades masivas de electricidad. A medida que las grandes empresas tecnológicas construyen una nueva generación de centros de datos para IA, crece la preocupación ciudadana. ¿Quién pagará las costosas mejoras de la red eléctrica necesarias para sostenerlos?

    Con ese telón de fondo, el presidente Donald Trump convocó recientemente en la Casa Blanca a los líderes de siete gigantes tecnológicos: AmazonGoogleMeta PlatformsMicrosoft, Oracle, OpenAI y xAI.

    El resultado fue la firma de una declaración formal denominada “Ratepayer Protection Pledge” (Compromiso de Protección al Contribuyente Eléctrico). Su objetivo declarado es proteger a los hogares estadounidenses de posibles aumentos en las tarifas derivados del crecimiento energético de la industria tecnológica.


    Un contexto complicado para los consumidores

    La iniciativa llega en un momento delicado. Según un informe de diciembre de 2025 del grupo Climate Power, las facturas eléctricas de los hogares estadounidenses aumentaron recientemente un 13%.

    Al mismo tiempo, el Departamento de Energía estima que la demanda eléctrica de los centros de datos podría duplicarse o incluso triplicarse antes de 2028. Este escenario ha alimentado una creciente oposición local a nuevos desarrollos tecnológicos. Temen que los residentes sean quienes terminen subsidiando la infraestructura necesaria para alimentar a la IA.

    Durante el encuentro, Trump reconoció el problema de percepción pública. Muchas comunidades creen que la llegada de un centro de datos implica automáticamente facturas más altas.


    ¿Qué promete el acuerdo?

    Según los términos de la proclamación, las empresas firmantes se comprometen a:

    • Construir, traer o comprar la nueva generación de recursos energéticos necesarios para cubrir su propia demanda.
    • Asumir el costo total de esos recursos adicionales.
    • Financiar todas las mejoras en infraestructura de transmisión y distribución necesarias para sus instalaciones.
    • Operar bajo estructuras tarifarias separadas, lo que implica pagar por la capacidad energética asignada, independientemente de si la utilizan por completo.

    En esencia, el compromiso busca garantizar que la expansión de los centros de datos no traslade el costo de nuevas plantas de generación o mejoras de red a los consumidores residenciales.

    Varias compañías, entre ellas Amazon, Google y Meta, difundieron rápidamente comunicados destacando su adhesión al acuerdo. También explicaron lo que están haciendo para mitigar el impacto ambiental y sobre las comunidades en las que se construyen sus centros de datos.


    Las dudas: ¿compromiso real o gesto político?

    Pese a su impacto mediático, el acuerdo presenta importantes interrogantes.

    El más evidente es que no parece ser jurídicamente vinculante. No existe, al menos por ahora, un marco claro de cumplimiento ni sanciones para las empresas que incumplan lo estipulado.

    Además, el enfoque del compromiso se limita principalmente a las tarifas eléctricas. Otros efectos asociados a la proliferación de centros de datos, como la presión sobre recursos hídricos locales, el aumento del costo de la vivienda, o el impacto en cadenas de suministro tecnológicas (por ejemplo el precio de la memoria y de los discos duros), quedan fuera del alcance del documento.


    Un reconocimiento del costo físico de la IA

    Más allá de sus limitaciones, la “Ratepayer Protection Pledge” representa un reconocimiento explícito de que la revolución de la IA no es solo digital, sino que tiene consecuencias físicas, energéticas y financieras concretas.

    La verdadera prueba llegará en los próximos años. Si la demanda eléctrica de los centros de datos continúa disparándose, será necesario comprobar si estos compromisos voluntarios logran mantener estables las facturas domésticas o si terminan siendo, en la práctica, tan solo un escudo reputacional para una industria que enfrenta un creciente rechazo a nivel local.

  • Claude resuelve un problema matemático complejo. Donald Knuth queda impresionado.

    IA
    La IA ayuda a Donald Knuth a resolver un problema matemático complejo

    «¡Shock! ¡Shock!”

    Donald Knuth no es precisamente un entusiasta de las modas tecnológicas. A sus 88 años, el profesor emérito de Stanford y ganador del Premio Turing es considerado uno de los padres de la informática moderna. Autor de la monumental obra The Art of Computer Programming, que escribe desde 1962, abandonó el correo electrónico en 1990 y aún ofrece una recompensa de US$2,56 por cada error detectado en sus libros. Por eso, cuando a finales de febrero de 2026 publicó un artículo titulado “Claude’s Cycles” que comenzaba con un enfático “¡Shock! ¡Shock!”, la comunidad científica prestó atención.

    El motivo, el modelo híbrido de razonamiento Claude Opus 4.6, desarrollado por Anthropic, había resuelto un problema matemático con el que Knuth llevaba semanas atascado.

    El problema del cubo tridimensional

    La cuestión pertenece al campo de la combinatoria y la teoría de grafos, concretamente a la descomposición de grafos dirigidos en ciclos hamiltonianos.

    El reto consiste en imaginar una cuadrícula tridimensional de tamaño m × m × m. Desde cada punto se puede avanzar en tres direcciones posibles. El objetivo era encontrar una regla general que permitiera recorrer todos los puntos exactamente una vez, formando tres ciclos distintos y no superpuestos que, en conjunto, utilizaran todas las aristas posibles.

    La escala del problema crece de forma astronómica: 3^(m³). El cálculo por fuerza bruta resulta impracticable.

    Knuth había logrado resolver manualmente el caso más pequeño no trivial (3×3×3), mientras que su colega Filip Stappers verificó empíricamente soluciones hasta 16×16×16. Todo indicaba que debía existir una regla matemática general. Nadie conseguía hallarla.


    31 pasos de razonamiento estructurado

    Stappers decidió introducir los parámetros exactos del problema en Claude Opus 4.6. Pero lo hizo con disciplina extrema: tras cada ejecución de código exploratorio, el modelo debía documentar inmediatamente su progreso antes de continuar.

    Durante aproximadamente una hora, Claude desarrolló una investigación en 31 etapas que, según Knuth, recordaba al proceso de ensayo y error de un estudiante de posgrado.

    El modelo:

    • Probó primero funciones lineales simples (sin éxito).
    • Intentó una búsqueda exhaustiva en profundidad y descartó el enfoque por el tamaño del espacio de búsqueda.
    • Redujo el problema a dos dimensiones e ideó un patrón “serpentino”.
    • Reconoció que la estructura subyacente era un grafo de Cayley.
    • Identificó su patrón como una variante del código Gray modular m-ario.

    En torno a la etapa 15 llegó al avance conceptual clave: la “descomposición en fibras”. Al dividir el cubo 3D en capas bidimensionales, simplificó radicalmente la estructura del problema.

    Tras varios intentos adicionales, el modelo concluyó que debía abandonar el tanteo computacional y apoyarse en construcción matemática pura.

    En el paso 31 encontró una solución elegante: un conjunto compacto de reglas, expresables en un breve programa en C, que generaba correctamente los ciclos hamiltonianos buscados.


    Un “coautor junior” con límites claros

    Stappers probó el programa para todas las dimensiones impares hasta 101. Funcionó sin fallos. Knuth descubrió más tarde que la solución era una de 760 construcciones válidas posibles.

    Sin embargo, el logro vino acompañado de matices importantes:

    • Claude encontró el cómo, pero no pudo demostrar el por qué.
    • Fue Knuth quien redactó la demostración matemática rigurosa que valida la construcción para todos los números impares.
    • El modelo fracasó al intentar generalizar el caso de dimensiones pares. Tras algunos intentos aislados exitosos, perdió completamente consistencia operativa.

    El episodio ilustra tanto el potencial como las limitaciones actuales de la IA en investigación avanzada.


    Hacia una nueva dinámica de investigación

    El caso refuerza la idea, expresada recientemente por el matemático Terence Tao, de que la IA generativa puede funcionar como un “coautor junior”: no sustituye al investigador principal, pero puede explorar rápidamente estructuras complejas.

    Otros referentes tecnológicos también están integrando IA en procesos avanzados. Por ejemplo, Linus Torvalds ha comentado sobre el uso de herramientas de IA en programación.

    Para la industria, que a menudo se apoya en métricas superficiales, el hecho de que un ganador del Premio Turing utilice un modelo de lenguaje para avanzar en un problema matemático abierto constituye un indicador mucho más significativo del progreso real.

    El esquema emergente parece claro:

    • Los humanos formulan las preguntas
    • La IA explora las estructuras ocultas
    • Los humanos formalizan las pruebas

    Knuth reconsidera su escepticismo

    Con su característico humor, Knuth cerró su artículo reconociendo que deberá revisar sus opiniones sobre la IA generativa. Incluso evocó el espíritu de Claude Shannon, figura clave de la teoría de la información, aludiendo al simbolismo del nombre “Claude”.

    Y concluyó con una frase que pocos esperaban de uno de los mayores escépticos de la disciplina:

    “Me quito el sombrero ante Claude.”

    Más que una anécdota técnica, el episodio podría marcar el inicio de una nueva etapa en la colaboración entre matemáticos y máquinas.

  • News Corp firma un acuerdo de $150 millones con Meta para licenciar contenido a sus modelos de IA

    Logo de Meta
    Logo de Meta, empresa que acaba de firmar un contrato de licenciamiento con News Corp

    En un movimiento que subraya el creciente valor del periodismo premium en la carrera por la inteligencia artificial, News Corp ha cerrado un acuerdo multi anual con Meta por hasta 150 millones de dólares. El pacto permitirá a la empresa matriz de Facebook e Instagram utilizar archivos periodísticos y cobertura en tiempo real del grupo mediático para entrenar y potenciar sus productos de IA.

    El acuerdo, valorado en hasta 50 millones de dólares anuales y con una duracion de al menos tres años, concede a Meta acceso a contenidos de sus principales cabeceras en Estados Unidos y Reino Unido, entre ellas:

    • The Wall Street Journal
    • New York Post
    • The Times
    • Dow Jones & Company

    Quedan fuera del acuerdo los medios australianos del grupo.

    Meta utilizará estos datos tanto para entrenar modelos como para integrar información en tiempo real en sus asistentes conversacionales, con el objetivo de mejorar precisión y actualidad en las respuestas.


    Meta refuerza su estrategia de IA

    Para Meta Platforms, la inversión forma parte de una estrategia más amplia para perfeccionar sus modelos de próxima generación. La compañía ha reorganizado recientemente sus equipos de inteligencia artificial y ha firmado acuerdos similares con otros grandes medios estadounidenses.

    El objetivo declarado es enriquecer Meta AI con fuentes diversas que permitan ofrecer información relevante acompañada de múltiples perspectivas editoriales.


    News Corp se posiciona como “empresa de insumo”

    Desde la óptica del editor, el acuerdo refleja un giro estratégico. En una conferencia tecnológica organizada por Morgan Stanley en San Francisco, el CEO de News Corp, Robert Thomson, describió al conglomerado como una “input company” (empresa de insumo) en la era de la IA.

    Según Thomson, si las compañías tecnológicas son “empresas de salida” que generan productos finales basados en IA, medios como News Corp proporcionan el recurso esencial que alimenta esos sistemas: contenido fiable, datos exclusivos y cobertura de última hora.

    “Somos un insumo, como los semiconductores, los centros de datos o la energía”, explicó, subrayando que la información verificada y los datos de mercado únicos son difíciles de sustituir.


    Estrategia “woo or sue”

    Thomson ha definido su postura frente a las tecnológicas con una fórmula directa: “woo or sue” (seducir o demandar).

    La lógica es clara: asociarse con quienes acepten pagar por el contenido y emprender acciones legales contra quienes lo utilicen sin autorización.

    Esta estrategia ya ha dado resultados. En 2024, News Corp firmó un acuerdo de cinco años valorado en 250 millones de dólares con OpenAI, desarrolladora de ChatGPT.

    Este enfoque contrasta con el de otros medios. Mientras algunos grupos han optado por asociaciones estratégicas, The New York Times ha emprendido acciones legales contra OpenAI y Microsoft por el uso presuntamente no autorizado de su contenido para entrenar modelos de IA.


    Tensiones internas y desafíos del sector

    Dentro de News Corp, la relación con la IA no está exenta de fricciones. La compañía ha lanzado herramientas internas basadas en inteligencia artificial y algunos ejecutivos regionales han expresado fuertes críticas hacia las grandes plataformas tecnológicas.

    No obstante, a nivel corporativo, el mandato parece claro: garantizar que el periodismo profesional no solo sobreviva en la era de la IA, sino que se convierta en un activo estratégico altamente remunerado.

    Con los motores de búsqueda integrando cada vez más funciones de IA, lo que amenaza el tráfico web tradicional que sustenta a los medios, News Corp busca asegurarse un papel central en la nueva cadena de valor digital: no solo como productor de noticias, sino como proveedor esencial de materia prima para la revolución de la inteligencia artificial.

  • OpenAI lanza GPT-5.3 Instant: un ChatGPT más natural, con algunos compromisos en seguridad

    Logo de OpenAI
    OpenAI lanza GPT-5.3 Instant

    OpenAI ha presentado oficialmente GPT-5.3 Instant, una actualización menor del modelo más utilizado en ChatGPT. Tras el reciente lanzamiento de GPT-5.3-Codex orientado a programadores, esta nueva versión apunta directamente al usuario cotidiano, con un objetivo claro: hacer las conversaciones más fluidas, útiles y mucho menos “incómodas”. No obstante, las evaluaciones internas revelan ciertos retrocesos en materia de moderación de contenido.


    Menos “raro” y con menos advertencias innecesarias

    Durante meses, los usuarios de GPT-5.2 Instant señalaron problemas de tono. El modelo anterior era percibido como excesivamente cauteloso, moralizante y propenso a interpretar mala intención donde no la había. En ocasiones recurría a frases dramáticas o rechazaba preguntas inofensivas por exceso de precaución.

    GPT-5.3 Instant aborda directamente estas críticas:

    • Reduce las negativas innecesarias.
    • Elimina introducciones defensivas o moralizantes.
    • Evita asumir malas intenciones.
    • Ofrece respuestas más directas y naturales.

    Además, mejora como asistente de escritura, con transiciones más suaves entre tareas prácticas y contenido creativo, incluyendo mayor matiz emocional en textos literarios.


    Mejor integración web y menos “alucinaciones”

    La nueva versión también presenta mejoras medibles en términos de precisión de las respuestas y del uso de información en línea. Cuando una consulta requiere acceso a la web, el modelo ahora equilibra mejor los datos externos con su conocimiento interno, evitando respuestas saturadas de enlaces o excesivamente dependientes de resultados de búsqueda.

    Según evaluaciones internas, el nuevo modelo logra:

    • 26.8% menos alucinaciones en temas críticos (medicina, derecho, finanzas) al usar la web.
    • 19.7% menos alucinaciones al apoyarse solo en conocimiento interno.
    • 22.5% menos errores reportados por usuarios relacionados con acceso web.

    El costo: retrocesos en algunos filtros de seguridad

    A pesar de las mejoras en experiencia y precisión, el informe técnico (“System Card”) indica que GPT-5.3 Instant presenta descensos en varias categorías de seguridad frente a GPT-5.2 Instant:

    • −6% en bloqueo de contenido sexual no permitido.
    • −7.1% en filtrado de violencia gráfica.
    • −2.8% en prevención de respuestas relacionadas con autolesión.
    • −3.9% en contenidos vinculados a conductas ilegales violentas.
    • Ligera caída en HealthBench (54.1% frente a 55.4%).

    Como contrapunto, el modelo mejora en consultas sobre comportamientos ilegales no violentos y en manejo de dependencia emocional.

    La compañía señala que durante las pruebas en línea no se detectó un aumento real en respuestas relacionadas con autolesión. Para mitigar riesgos, especialmente en contenido sexual, OpenAI afirma apoyarse en las protecciones integradas a nivel de plataforma y ha prometido investigaciones adicionales.


    Limitaciones conocidas y disponibilidad

    OpenAI reconoce que persisten limitaciones, especialmente en idiomas distintos del inglés. En lenguas como el japonés y el coreano, el estilo puede sonar rígido o excesivamente literal. Mejorar la naturalidad multilingüe y ampliar las opciones de personalización de tono siguen siendo objetivos prioritarios de la compañía.

    GPT-5.3 Instant ya está disponible para todos los usuarios de ChatGPT y para desarrolladores a través de la API bajo el nombre gpt-5.3-chat-latest. Las actualizaciones para los niveles Thinking y Pro llegarán próximamente.

    Para facilitar la transición, GPT-5.2 Instant permanecerá accesible para usuarios de pago durante tres meses en la sección “Legacy Models”. Tras ese período, el modelo anterior será retirado definitivamente el 3 de junio de 2026.


    Con GPT-5.3 Instant, OpenAI apuesta por una experiencia conversacional más humana y menos rígida. El desafío ahora será mantener ese equilibrio sin sacrificar los estándares de seguridad.

  • Las gafas inteligentes de Ray-Ban Meta exponen momentos íntimos a revisores humanos

    Logo de Meta
    Las Ray-Ban Meta transmiten información que debería ser confidencial a revisores humanos

    Otro escándalo para la empresa de Mark Zuckerberg

    La inteligencia artificial en dispositivos «vestibles» (wearables en inglés) se perfila como la próxima gran frontera tecnológica. Gafas inteligentes como las Ray-Ban Meta Smart Glasses prometen grabar nuestra vida en modo manos libres e interactuar con el entorno mediante asistentes de IA. Pero una reciente investigación revela el alto costo oculto de esa comodidad: grabaciones íntimas y altamente sensibles están siendo vistas por revisores humanos a miles de kilómetros de distancia.

    Según un reportaje publicado por el diario sueco Svenska Dagbladet (SvD), fragmentos de video capturados por las gafas de Meta son enviados a contratistas externos en Nairobi, Kenia. Allí, trabajadores empleados por la subcontratista Sama revisan manualmente el material, dibujando recuadros alrededor de objetos para entrenar y mejorar los modelos de IA de la compañía.

    De escenas cotidianas a momentos profundamente privados

    El problema es que el contenido no se limita a escenas inocuas en primera persona. Según denunciantes citados en la investigación, los revisores han tenido acceso a escenas extremadamente privadas: personas usando el baño, caminando desnudas en sus hogares o manteniendo relaciones sexuales. En otros casos, información financiera sensible, como números de tarjetas de crédito, aparecía claramente visible en pantalla.

    Algunos trabajadores describieron situaciones en las que las gafas seguían grabando sin que las personas presentes lo supieran. En un caso, un hombre dejó las gafas sobre una mesa de noche mientras salía de la habitación; poco después, una mujer entró y se cambió de ropa frente a la cámara aún activa.

    Ambigüedad técnica y falta de transparencia

    Las gafas capturan video de dos maneras principales: grabación manual y activación del asistente mediante comandos de voz para que la IA identifique o analice lo que el usuario está mirando.

    Cuando se activa la IA, el material debe enviarse a los servidores de Meta para su procesamiento. Sin embargo, no está claro cuánto tiempo se graba o transmite tras la interacción. Si un usuario pregunta qué modelo de automóvil tiene delante, ¿la grabación se detiene inmediatamente tras recibir la respuesta o continúa durante varios segundos adicionales? Tampoco queda claro si parte del material grabado manualmente puede terminar en procesos de revisión humana.

    En teoría, existen filtros automáticos y sistemas de anonimización que deberían desenfocar la imagen de rostros y descartar escenas sensibles antes de que lleguen a revisores humanos. Pero los ex-empleados citados en la investigación reconocen que estos sistemas fallan con frecuencia, especialmente en condiciones de poca luz o cuando el contexto íntimo no es fácilmente identificable por un algoritmo.

    La respuesta de Meta y el debate legal

    Ante las preguntas de periodistas, Meta tardó dos meses en responder y finalmente se limitó a remitir a sus Términos de Servicio y Política de Privacidad. En dichos documentos se indica que puede producirse una revisión “automática o manual (humana)” cuando se interactúa con funciones de IA.

    En la práctica, esto traslada la responsabilidad al usuario: evitar grabar o compartir información sensible. Sin embargo, expertos en protección de datos advierten que transferir datos personales de usuarios europeos a trabajadores externos en Kenia podría entrar en conflicto con las estrictas normas de transparencia del Reglamento General de Protección de Datos (GDPR) de la Unión Europea.

    Un patrón que se repite en la industria

    El caso recuerda al escándalo de 2019 que involucró a Apple, cuando se reveló que contratistas externos escuchaban grabaciones de Siri para mejorar la precisión del asistente de voz. Aquellos revisores terminaron oyendo conversaciones médicas privadas, transacciones ilegales y encuentros íntimos, lo que generó fuertes críticas y acuerdos de compensación millonarios.

    Hoy, mientras las grandes tecnológicas compiten por integrar la IA en todo tipo de dispositivos, desde gafas hasta auriculares con cámara y nuevos formatos portátiles, la dependencia del trabajo humano para entrenar algoritmos sigue siendo una realidad incómoda.

    Hasta que las empresas puedan garantizar que sus sistemas de protección automáticos funcionan realmente y que los usuarios comprenden con total claridad qué es lo que se graba, durante cuánto tiempo se almacena y quién puede verlo, la adopción temprana de estos dispositivos podría implicar un intercambio inquietante: comodidad tecnológica a cambio de nuestros momentos más vulnerables.