¿Siri filtra la privacidad del usuario?
Si bien Apple no revela esto explícitamente en sus documentos de privacidad para el consumidor, una pequeña porción de las grabaciones de Siri se envía a contratistas que trabajan para Apple en todo el mundo. Se les asignó la tarea de calificar las respuestas basándose en una variedad de factores, incluido si la activación del asistente de voz fue intencional o accidental, si Siri podía ayudar a la pregunta y si la respuesta de Siri era apropiada.
Apple afirma que estos datos se utilizan para ayudar a Siri y al dictado. Coseno hiperbólico. Coseno hiperbólico. Te entiendo mejor y reconozco lo que dices.
Pero Apple no ha dejado claro que personas reales escucharon estas grabaciones.
Apple dijo: Analiza algunas de las solicitudes de Siri para mejorar Siri y el dictado. La solicitud del usuario no tiene nada que ver con el AppleID del usuario. Las respuestas de Siri se analizan en una instalación segura y todos los auditores están obligados a cumplir con los estrictos requisitos de confidencialidad de Apple. Añade que se trata de un subconjunto aleatorio muy pequeño, menos de 65.438+0% de las activaciones diarias de Siri, que se utiliza con fines de clasificación, y que los datos suelen durar sólo unos pocos segundos.
Al bombardero le preocupa que Apple esté engañando a los usuarios para que presionen botones, considerando accidentalmente la frecuencia de activación para obtener información personal muy sensible.
Siri escuchó mal la palabra de activación, lo que significa que Siri podría haberla activado accidentalmente. Este error es muy común. Por ejemplo, la entrevista de la BBC sobre Siria el año pasado despertó accidentalmente el diálogo de Siri, y Siri se activaba de vez en cuando. Además, Siri se activa de otras formas. Por ejemplo, cuando el Apple Watch detecta que lo levantan y escucha un sonido, Siri se activará automáticamente.
El atacante dijo: Hay innumerables grabaciones de audio de discusiones privadas, transacciones comerciales, tratos criminales y encuentros sexuales entre médicos y pacientes. Estas cintas contienen datos del usuario que muestran ubicación, información de contacto y datos de la aplicación.
Toda esta información se utiliza para verificar que la solicitud fue procesada exitosamente. En el documento de privacidad, Apple afirmó que los datos de Siri no están relacionados con los datos generados por Apple utilizando otros servicios de Apple. No se agregan nombres o identificadores específicos a los registros y ningún registro individual se puede vincular fácilmente a otros registros.
La activación accidental envía sin saberlo los datos más sensibles a Apple. Aunque la mayoría de los iPhone y iPad de Apple incluyen Siri, los denunciantes destacan los altavoces inteligentes Apple Watch y HomePod como las fuentes más comunes de grabaciones erróneas. Dijeron: Los relojes provocan accidentes con una frecuencia increíble. El reloj puede grabar un clip de 30 segundos, que no es demasiado largo, pero puedes entender completamente lo que está sucediendo.
A veces se puede escuchar claramente la conversación entre el médico y el paciente, como por ejemplo hablar sobre el historial médico del paciente. O puedes oír a alguien, tal vez el ruido de fondo del motor de un coche. Aunque no estás seguro, tal vez sea tráfico de drogas. Definitivamente puedes escuchar lo que están haciendo. Incluso puedes escuchar los actos sexuales de algunas personas grabados accidentalmente mediante pods o relojes.
El denunciante dijo que Apple anima a los empleados a informar sobre activaciones accidentales, pero esto es sólo un problema técnico y no existen procedimientos específicos para el manejo de registros confidenciales. Nos animan a alcanzar objetivos y completar el trabajo lo más rápido posible. Informar de la única funcionalidad que escucha parece ser un problema técnico. Esto no tiene nada que ver con el contenido del artículo.
Además de sentirse incómodo al escuchar información tan personal, a Bombardier le preocupaba que su trabajo pudiera ser mal utilizado si se hacía público. No hay mucho control sobre quién trabaja allí y los datos que podemos explorar libremente parecen bastante extensos. No es difícil identificar a la persona que estás escuchando, especialmente si la dirección y el nombre se activan accidentalmente.
Apple subcontrata estos negocios, y su facturación es muy elevada. No es como fomentar que se considere, ni se considera, la privacidad. Si alguien tiene intenciones maliciosas, no será difícil identificar a la persona en la grabación.
El bombardero cree que Apple debería revelar la existencia de supervisión humana a los usuarios, concretamente para dejar de responder a las consultas de Siri en TikTok. Por ejemplo, pregúntale a Siri, ¿siempre has escuchado? Responder Sólo escucho cuando me hablas.
Esto obviamente está mal, dijo el bombardero. Los desencadenantes accidentales son comunes para esta reacción alegre.
Apple no es el único que regula manualmente los asistentes de voz automatizados.
En abril de este año, Amazon anunció que contrataría empleados para escuchar las grabaciones de Alexa. A principios de este mes, los empleados de Google hicieron lo mismo con el Asistente de Google.
Pero se diferencia de estas empresas en algunos aspectos. En primer lugar, Amazon y Google no sólo permiten a los usuarios elegir no grabar a Siri, sino que Apple no ofrece una opción similar. Según Counterpoint Research, Apple posee el 35% del mercado de relojes inteligentes, más del triple que su rival más cercano, Samsung, y más que los siguientes seis competidores juntos.
Después de que Siri de Apple filtrara la privacidad de Apple, muchos internautas comenzaron a apoyar a Siri. Por ejemplo, Hola Siri, ¿filtraste mi privacidad? Siri respondió seriamente al principio: respeto tu privacidad. Cuando me hablas solo escucho. Puede ver la política de privacidad de Apple en su sitio web oficial. Más tarde, Siri dijo que no puedo responder una pregunta interesante o lo siento, es posible que no pueda responder esta pregunta.