
Otro escándalo para la empresa de Mark Zuckerberg
La inteligencia artificial en dispositivos «vestibles» (wearables en inglés) se perfila como la próxima gran frontera tecnológica. Gafas inteligentes como las Ray-Ban Meta Smart Glasses prometen grabar nuestra vida en modo manos libres e interactuar con el entorno mediante asistentes de IA. Pero una reciente investigación revela el alto costo oculto de esa comodidad: grabaciones íntimas y altamente sensibles están siendo vistas por revisores humanos a miles de kilómetros de distancia.
Según un reportaje publicado por el diario sueco Svenska Dagbladet (SvD), fragmentos de video capturados por las gafas de Meta son enviados a contratistas externos en Nairobi, Kenia. Allí, trabajadores empleados por la subcontratista Sama revisan manualmente el material, dibujando recuadros alrededor de objetos para entrenar y mejorar los modelos de IA de la compañía.
De escenas cotidianas a momentos profundamente privados
El problema es que el contenido no se limita a escenas inocuas en primera persona. Según denunciantes citados en la investigación, los revisores han tenido acceso a escenas extremadamente privadas: personas usando el baño, caminando desnudas en sus hogares o manteniendo relaciones sexuales. En otros casos, información financiera sensible, como números de tarjetas de crédito, aparecía claramente visible en pantalla.
Algunos trabajadores describieron situaciones en las que las gafas seguían grabando sin que las personas presentes lo supieran. En un caso, un hombre dejó las gafas sobre una mesa de noche mientras salía de la habitación; poco después, una mujer entró y se cambió de ropa frente a la cámara aún activa.
Ambigüedad técnica y falta de transparencia
Las gafas capturan video de dos maneras principales: grabación manual y activación del asistente mediante comandos de voz para que la IA identifique o analice lo que el usuario está mirando.
Cuando se activa la IA, el material debe enviarse a los servidores de Meta para su procesamiento. Sin embargo, no está claro cuánto tiempo se graba o transmite tras la interacción. Si un usuario pregunta qué modelo de automóvil tiene delante, ¿la grabación se detiene inmediatamente tras recibir la respuesta o continúa durante varios segundos adicionales? Tampoco queda claro si parte del material grabado manualmente puede terminar en procesos de revisión humana.
En teoría, existen filtros automáticos y sistemas de anonimización que deberían desenfocar la imagen de rostros y descartar escenas sensibles antes de que lleguen a revisores humanos. Pero los ex-empleados citados en la investigación reconocen que estos sistemas fallan con frecuencia, especialmente en condiciones de poca luz o cuando el contexto íntimo no es fácilmente identificable por un algoritmo.
La respuesta de Meta y el debate legal
Ante las preguntas de periodistas, Meta tardó dos meses en responder y finalmente se limitó a remitir a sus Términos de Servicio y Política de Privacidad. En dichos documentos se indica que puede producirse una revisión “automática o manual (humana)” cuando se interactúa con funciones de IA.
En la práctica, esto traslada la responsabilidad al usuario: evitar grabar o compartir información sensible. Sin embargo, expertos en protección de datos advierten que transferir datos personales de usuarios europeos a trabajadores externos en Kenia podría entrar en conflicto con las estrictas normas de transparencia del Reglamento General de Protección de Datos (GDPR) de la Unión Europea.
Un patrón que se repite en la industria
El caso recuerda al escándalo de 2019 que involucró a Apple, cuando se reveló que contratistas externos escuchaban grabaciones de Siri para mejorar la precisión del asistente de voz. Aquellos revisores terminaron oyendo conversaciones médicas privadas, transacciones ilegales y encuentros íntimos, lo que generó fuertes críticas y acuerdos de compensación millonarios.
Hoy, mientras las grandes tecnológicas compiten por integrar la IA en todo tipo de dispositivos, desde gafas hasta auriculares con cámara y nuevos formatos portátiles, la dependencia del trabajo humano para entrenar algoritmos sigue siendo una realidad incómoda.
Hasta que las empresas puedan garantizar que sus sistemas de protección automáticos funcionan realmente y que los usuarios comprenden con total claridad qué es lo que se graba, durante cuánto tiempo se almacena y quién puede verlo, la adopción temprana de estos dispositivos podría implicar un intercambio inquietante: comodidad tecnológica a cambio de nuestros momentos más vulnerables.

Deja una respuesta