Las nuevas funciones de ‘seguridad para niños’ de Apple enfrentan un nuevo desafío


El controvertido plan de Apple para escanear fotos de usuarios y conversaciones en busca de material de abuso sexual infantil (CSAM) enfrenta nuevas críticas luego de que grupos de derechos advirtieron que “censuraría el discurso protegido”, amenazaría la privacidad y pondría en peligro a los niños.

En una carta publicada en el sitio web del Centro para la Democracia y la Tecnología, una coalición de más de 90 grupos de todo el mundo instó al director ejecutivo de Apple, Tim Cook, a abandonar los planes para introducir la función de vigilancia, conocida como hash CSAM, para detectar imágenes de pornografía infantil almacenadas. en iCloud.

La carta, publicada el jueves, apunta al uso de algoritmos de aprendizaje automático “notoriamente poco confiables” para buscar imágenes sexualmente explícitas en el servicio ‘Mensajes’ en dispositivos iOS. Señala que esto podría generar alertas que “amenacen la seguridad y el bienestar” de los jóvenes con padres abusivos.

“IMessages ya no brindará confidencialidad y privacidad a esos usuarios a través de un sistema de mensajería cifrada de extremo a extremo en el que solo el remitente y los destinatarios previstos tienen acceso a la información enviada”, advirtieron los grupos.

Agregaron que la tecnología también podría abrir la puerta a una “enorme presión” y compulsiones legales de varios gobiernos para buscar imágenes consideradas “objetables” como protestas, violaciones de derechos humanos e incluso “imágenes poco halagüeñas” de políticos.

Entre los firmantes de la carta se incluyen la Unión Estadounidense de Libertades Civiles, la Fundación Frontera Electrónica, Access Now, Privacy International y el Proyecto Tor. Además, varios grupos extranjeros han agregado sus preocupaciones sobre el impacto de la política en países con diferentes sistemas legales.

Un portavoz de Apple dijo a Reuters que la compañía había abordado anteriormente las preocupaciones sobre privacidad y seguridad. La semana pasada, publicó un documento que detalla por qué la compleja arquitectura del software de escaneo le permitió resistir los intentos de abusar de él.

A principios de este mes, una carta separada publicada en GitHub y firmada por expertos en privacidad y seguridad, incluido el ex denunciante de la NSA, Edward Snowden, condenó la “tecnología de escaneo de contenido invasivo de la privacidad”. También advirtió que la política “amenaza con socavar las protecciones fundamentales de la privacidad” de los usuarios, bajo el disfraz de protección infantil.

Se han planteado otras preocupaciones sobre la posibilidad de “falsos positivos” en la función de escaneo de hash, que busca el “hash” de una imagen, una cadena de letras y números que son exclusivos de la imagen, y lo compara con las bases de datos proporcionadas por el niño. agencias de protección como el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Aunque una reciente pregunta frecuente de Apple afirmó que la probabilidad de un falso positivo “menos de uno en un billón [incorrectly flagged accounts] por año ”, los investigadores informaron el primer caso de“ colisión de hash ”, donde la función identificó dos imágenes completamente diferentes que producían el mismo hash, esta semana.

Según TechCrunch, las “colisiones de hash” son una “sentencia de muerte” para los sistemas que dependen del cifrado.

Sin embargo, el medio de noticias de tecnología dijo que Apple minimizó las preocupaciones en una llamada de prensa y argumentó que tenía protecciones en su lugar, incluidos moderadores humanos que revisan los incidentes marcados antes de que se informen a las fuerzas del orden público, para protegerse contra el problema de los falsos positivos.

.



Source link