Siri registra peleas, citas médicas y sexo (y los contratistas escuchan)

"Siri, define la palabra "increíble.'" "está bien.  Entonces, pídeme que defina la palabra

manzana

La popularidad de los asistentes de voz está creciendo, pero la tecnología ha experimentado un aumento paralelo de las preocupaciones sobre la privacidad y la precisión. Siri de Apple es el último en ingresar a este espacio gris de la tecnología. Esta semana, The Guardian informó que los contratistas que revisan las grabaciones de Siri para verificar su precisión y para ayudar a realizar mejoras pueden estar escuchando conversaciones personales.

Uno de los trabajadores contratados le dijo a The Guardian que Siri a veces grababa audio después de activaciones incorrectas. La palabra de activación es la frase «hey Siri», pero la fuente anónima dijo que podría activarse con palabras de sonido similar o con el ruido de una cremallera. También dijeron que cuando se activa un Apple Watch y se detecta el habla, Siri se activa automáticamente.

«Ha habido innumerables casos de grabaciones con discusiones privadas entre médicos y pacientes, empresas, negocios aparentemente delictivos, encuentros sexuales, etc.», dijo la fuente. «Estas grabaciones van acompañadas de datos del usuario, que muestran la ubicación, los datos de contacto y los datos de la aplicación».

Apple dijo que toma medidas para proteger a los usuarios de estar conectados a las grabaciones enviadas a los contratistas. El audio no está vinculado a una ID de Apple y se revisa menos del 1% de las activaciones diarias de Siri. También establece requisitos de confidencialidad para los trabajadores subcontratados. Nos hemos puesto en contacto con Apple para obtener más comentarios y actualizaremos la historia si la recibimos.

Publicidad

Apple, junto con Google y Amazon, tienen políticas similares para los trabajadores contratados para revisar estos clips de audio. Pero los tres fabricantes de inteligencia artificial de voz también han estado sujetos a violaciones de privacidad similares, ya sea por denunciantes que van a la prensa o por errores que dan a los usuarios acceso a archivos de audio incorrectos.

Las empresas de tecnología también han sido objeto de investigaciones sobre plataformas de voz que graban conversaciones que no deberían tener. Amazon describió recientemente sus políticas para mantener y revisar grabaciones en respuesta a las preguntas del senador Chris Coons (D-Delaware). Una queja de un contratista de Google dijo que los trabajadores escucharon conversaciones entre padres e hijos, información privada y de identificación y al menos un posible caso de agresión sexual.

Estos casos plantean una serie de preguntas. ¿Qué pueden hacer Apple y sus colegas para proteger mejor la privacidad del usuario mientras desarrollan sus sistemas de voz? ¿Se debe notificar a los usuarios cuando se revisan sus grabaciones? ¿Qué se puede hacer para reducir o eliminar las activaciones accidentales? ¿Cómo deben manejar las empresas la información accidental que escuchan sus contratistas? ¿Quién es responsable cuando se registra y descubre una actividad peligrosa o ilegal, todo por accidente?

Los asistentes de voz parecen ser más una instancia en la que una tecnología se desarrolló y adoptó más rápidamente de lo que sus consecuencias fueron completamente planeadas.