Apple retrasa sus planes de escanear los dispositivos, en busca de imágenes de abuso infantil, tras la reacción de privacidad

Publicado por: Manuel Abreu Ortiz - social@manuelabreuo.com

Apple ha puesto temporalmente en pausa sus controvertidos planes de escanear los dispositivos de los usuarios en busca de material de abuso sexual infantil (CSAM) después de haber recibido continuas críticas por la preocupación de que la herramienta pueda ser utilizada como arma para la vigilancia masiva y erosionar la privacidad de los usuarios.

“Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar información y hacer mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica”, dijo el fabricante del iPhone, en un comunicado en su sitio web.

En un principio, los cambios debían entrar en funcionamiento con iOS 15 y macOS Monterey a finales de este año, en primera instancia, en Estados Unidos.

Sin embargo, el anuncio no aclara el tipo de información que se recopilará, la naturaleza de los cambios que se pretende diseñar o cómo se pretende implementar el sistema de manera que se mitiguen los problemas de privacidad y seguridad que podrían surgir una vez que se implemente.

En agosto, Apple detalló varias nuevas funciones destinadas a ayudar a limitar la propagación del CSAM en su plataforma, incluyendo el escaneo de las bibliotecas de Fotos de iCloud de los usuarios en busca de contenido ilícito, la Seguridad de la Comunicación en la aplicación Mensajes para advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas, y una guía ampliada en Siri y en la Búsqueda cuando los usuarios intenten realizar búsquedas sobre temas relacionados con el CSAM.

La llamada tecnología NeuralHash habría funcionado cotejando las fotos de los iPhones, iPads y Macs de los usuarios justo antes de subirlas a Fotos de iCloud con una base de datos de imágenes conocidas de abusos sexuales a menores mantenida por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) sin tener que poseer las imágenes o espiar su contenido. Las cuentas de iCloud que superasen un umbral establecido de 30 hashes coincidentes serían entonces revisadas manualmente, se desactivarían sus perfiles y se informarían a las autoridades.

Las medidas pretendían alcanzar un compromiso entre la protección de la privacidad de los clientes y la satisfacción de las crecientes demandas de las agencias gubernamentales en las investigaciones relacionadas con el terrorismo y la pornografía infantil y, por extensión, ofrecer una solución al llamado problema de la “oscuridad” de los delincuentes que se aprovechan de las protecciones de cifrado para ocultar sus actividades de contrabando.

Sin embargo, en un correo electrónico que circuló internamente en Apple, se encontró que los activistas de la seguridad infantil desestimaron las quejas de los activistas de la privacidad y los investigadores de seguridad como la “voz chillona de la minoría”.

Desde entonces, Apple ha intervenido para calmar las posibles preocupaciones derivadas de las consecuencias no deseadas, oponiéndose a la posibilidad de que el sistema pueda utilizarse para detectar otras formas de fotos a petición de gobiernos autoritarios. “Seamos claros, esta tecnología se limita a detectar el CSAM almacenado en iCloud y no accederemos a la petición de ningún gobierno de ampliarla”, dijo la compañía.

Aun así, no ha disipado los temores de que el escaneo del lado del cliente pueda suponer una preocupante invasión de la privacidad y de que pueda ampliarse para cometer más abusos, y proporcionar un modelo para romper el cifrado de extremo a extremo. Tampoco ayudó el hecho de que los investigadores fueran capaces de crear “colisiones de hash” -también conocidas como falsos positivos- mediante ingeniería inversa del algoritmo, lo que llevó a un escenario en el que dos imágenes completamente diferentes generaron el mismo valor de hash, engañando así al sistema para que pensara que las imágenes eran las mismas cuando no lo son.

Con información de: Gizmodo.