Francia acusa a Apple de espiar a sus usuarios a través de Siri

Conversaciones privadas sobre temas delicados como política o condiciones de salud, todas grabadas a través del asistente de voz de iOS, y luego analizadas por cientos de operados. Hace 5 años, Thomas Le Bonniec denunció la intromisión, considerándola “una invasión gigante a la privacidad por parte de Apple”. No obstante, la historia se vuelve a repetir, ahora con la denuncia presentada ante la Fiscalía de París por la ONG Liga de los Derechos Humanos.
La noticia llega poco después de la resolución de una demanda colectiva similar en Estados Unidos, en la que Apple acordó resolver el caso por 95 millones de dólares. Aunque ambos casos tienen características diferentes, exponen una brecha de seguridad en el producto conversacional del fabricante de Cupertino.
La primera queja
En 2019, Thomas Le Bonniec denunció públicamente la función de “mejorar Siri y el Dictado” integrada en el ecosistema Apple. El sistema, como indica su propia descripción, ayuda a Apple a perfeccionar la respuesta de su asistente virtual y el dictado al compartir grabaciones de audio y transcripciones de sus interacciones con el Traductor.
Según Le Bonniec, las conversaciones grabadas y las transcripciones se confían a cientos de operadores, que las revisan para verificar su exactitud: “Todo lo que le dices a tu asistente de voz o en su presencia puede ser grabado y luego escuchado por humanos reales”. Thomas llevó a cabo esta actividad en nombre de un proveedor de Apple y fue responsable de analizar 1,300 grabaciones por día en francés y reportar cualquier error a través de un software especializado. Al dejar su trabajo, decidió hacer público el “detrás de cámara” de una actividad que consideró una invasión a la privacidad.
“El contenido de las grabaciones incluía información extremadamente confidencial, como datos sobre el estado de salud de las personas, sus opiniones políticas u otros asuntos personales. El tipo de asuntos que no quieres que oiga un extraño”, explica Thomas.
Sin embargo, la queja interpuesta ante la Autoridad de Protección de Datos de Irlanda no tuvo sanciones. El único resultado fue un cambio en las condiciones de uso por parte de Apple, que adoptó la política ‘opt-in’ (optar por); una adhesión específica para que el usuario active la funcionalidad a su gusto. Le Bonniec y la Liga de Derechos Humanos arremeten con que esto no es suficiente: “Esta práctica viola el Reglamento General de Protección de Datos (RGPD) y ni siquiera los cambios introductorios son suficientes para considerarla legal”.
Anónimo, pero no demasiado.
Más allá de consideraciones jurídicas, el escenario descrito por Thomas plantea algunas cuestiones comprometedoras. El primero se refiere al anonimato de quienes deciden permitir el almacenamiento y el análisis de las grabaciones. Aunque cada usuario está identificado con un número de serie simple y los operadores no tienen forma de vincularlo directamente a un nombre, el anonimato desaparece al acceder al contenido archivado.
“La gente recurre a sus contactos y no es muy difícil comprender cuál es su verdadera identidad. Siendo operador tienes acceso a información adicional, como la lista de contactos almacenada en el dispositivo”, describe Le Bonniec. El denunciante agrega que el acceso a la lista de contactos se utiliza para verificar la correspondencia entre lo que se dijo al asistente: “Siri, llama a mamá”, y los datos almacenados por el sistema: la presencial de un contacto registrado como “mamá”. Esto queda confirmado por las condiciones de uso comunicadas por Apple.
Grabaciones traicioneras
Otro aspecto se refiere al hecho de que no todas las grabaciones corresponden a interacciones “conscientes” con Siri. “Los usuarios se registran sin darse cuenta. Según mis cálculos, entre el 20 y el 30% de las grabaciones que analicé se iniciaron por error”, afirma el exempleado.
El fenómeno es bien conocido por cualquiera que utilice un dispositivo equipado con un asistente virtual: la función puede activarse por accidente, quizá porque se pronunció una frase similar a “Oye, Siri”. El problema, de acuerdo con Thomas, es que las grabaciones suelen acabar en análisis.
“Existía una función para reportar grabaciones hechas por error. Sin embargo, quienes trabajaban en este campo estaban sometidos a fuertes presiones, sujetos a rigurosas evaluaciones y se arriesgaban a ser despedidos fácilmente. Para evitar problemas, era una práctica común analizar incluso las grabaciones aleatorias”, recuerda Thomas.
Este aspecto es, en particular, el cimiento de la demanda colectiva interpuesta en EE UU, por la que la gigante tecnológica aceptó pagar 95 millones de dólares en daños y perjuicios. La Fiscalía de París sigue por la misma línea, y deberá evaluar el informe presentado por la ONG. Después de la denuncia con cinco años de existencia, el mecanismo ejecutivo decidirá si los aspectos del caso son una ilegalidad en la gestión de las grabaciones. Todo esto, cerca de lo que debería ser la nueva evolución de Siri con la implementación de funciones de IA.
Artículo originalmente publicado en WIRED Italia. Adaptado por Alondra Flores.