Meta crea una herramienta para frenar la difusión del porno de venganza

Publicado por: Manuel Abreu Ortiz - social@manuelabreuo.com

La empresa matriz de Facebook, Meta, ha colaborado con la organización sin ánimo de lucro Revenge Porn Helpline, con sede en el Reino Unido, para crear una herramienta que permita a las personas evitar que sus imágenes íntimas se suban a Facebook, Instagram y otras plataformas participantes, sin su consentimiento.

La herramienta, que se basa en un programa piloto que Facebook inició en Australia en 2017, se lanzó el jueves. Permite a las personas que están preocupadas porque sus fotos o videos íntimos han sido o podrían ser compartidos en línea, por ejemplo, por ex parejas descontentas, enviar las imágenes a un sitio web central y global llamado StopNCII.org, que significa “Stop Non-Consensual Intimate Images.”

Durante el proceso de envío, StopNCII.org obtiene el consentimiento y pide a las personas que confirmen que están en una imagen. Las personas pueden seleccionar material en sus dispositivos, incluidas imágenes manipuladas, que las muestren desnudas o casi desnudas. Las fotos o los vídeos se convertirán entonces en huellas digitales únicas conocidas como “hashes”, que se transmitirán a las empresas participantes, empezando por Facebook e Instagram.

StopNCII.org, que se desarrolló en consulta con 50 socios mundiales especializados en el abuso de imágenes, la seguridad en línea y los derechos de las mujeres, no tendrá acceso ni almacenará copias de las imágenes originales. En su lugar, se convertirán en hash en los navegadores de los usuarios, y StopNCII.org obtendrá únicamente las copias con hash.

Otras grandes plataformas han expresado su interés en unirse a la iniciativa, incluidas las empresas de medios sociales, los sitios para adultos y los tablones de anuncios, dijo Mortimer, aunque todavía no están preparadas para anunciar su participación en el programa.

Cada una de las empresas participantes utilizaría tecnología de comparación de hash para comprobar si se han subido a sus plataformas imágenes que coincidan con los hash. Si detectaran coincidencias, los moderadores de contenidos de las plataformas revisarían las imágenes para asegurarse de que infringen sus políticas y de que la herramienta no ha sido utilizada indebidamente por alguien que envía otro tipo de imagen no infractora. Si las plataformas determinaban que las imágenes o los vídeos infringían sus políticas, eliminaban todas las instancias y bloqueaban los intentos de volver a subirlas.

En el proyecto piloto de Facebook de 2017, las imágenes eran revisadas por moderadores humanos en el momento de su envío y convertidas en hashtags, lo que suscitó algunas críticas por motivos de privacidad en los medios de comunicación.

Desde el piloto de 2017, Facebook ha desarrollado más sistemas para combatir el NCII en la plataforma, informó NBC News en noviembre de 2019. Sin embargo, en ese momento, la jefa de seguridad de la compañía, Antigone Davis, dijo que era necesaria una mayor colaboración con otras empresas tecnológicas para evitar que las personas que pretenden compartir imágenes íntimas sin el consentimiento de los sujetos simplemente se trasladen a otra plataforma.

Con información de Europa Press.