Meta, la empresa matriz de Instagram y Facebook, retrasó los planes de cifrar mensajes en la plataforma hasta 2023 en medio de advertencias de activistas por la seguridad infantil que argumentan que la medida protegería a los abusadores y los ayudaría a evitar ser detectados.

En agosto de este año, Facebook anunció que implementaría el cifrado de extremo a extremo para los mensajes de chat en Facebook e Instagram. La compañía ahora aplaza el cifrado de mensajes hasta 2023. Justificando la medida, Antigone Davis, directora global de seguridad de Meta, escribió en el Sunday Telegraph:

"Nos estamos tomando nuestro tiempo para hacerlo bien, y no planeamos finalizar el despliegue global del cifrado de extremo a extremo de forma predeterminada en todos nuestros servicios de mensajería hasta algún momento de 2023".
"Como empresa que conecta a miles de millones de personas en todo el mundo y ha desarrollado tecnología líder en la industria, estamos decididos a proteger las comunicaciones privadas de las personas y mantenerlas seguras en línea".

Mientras tanto, la Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) dijo que la mensajería privada es la “primera línea del abuso sexual infantil en línea”. El cifrado solo empeoraría las cosas porque evita que las fuerzas del orden y las plataformas tecnológicas vean mensajes y frenen el acoso. La tecnología de cifrado de extremo a extremo solo permite al remitente y al destinatario correspondiente ver el contenido de los mensajes intercambiados.

Los planes de Meta para asegurar las interacciones entre sus usuarios se han aplazado un año más, pero la compañía desarrolló un interés en el área por primera vez en 2019. En ese momento, según los informes, Zuckerberg dijo:

"La gente espera que sus comunicaciones privadas sean seguras y que solo las vean las personas a las que las enviaron, no los piratas informáticos, los delincuentes, los gobiernos extravagantes o incluso las personas que operan los servicios que están utilizando".

El cifrado de extremo a extremo ha sido una característica básica de WhatsApp, también propiedad de Meta. Recientemente, se implementó el cifrado para llamadas de voz y video en Messenger.

Argumentando a favor del cifrado, Davis dijo que Meta detectaría el abuso utilizando datos no cifrados, información de cuentas e informes de usuarios. WhatsApp ya ha habilitado un enfoque similar para informar incidentes de seguridad infantil a las autoridades pertinentes. Añadió además: “Nuestra revisión reciente de algunos casos históricos mostró que todavía habríamos podido proporcionar información crítica a las autoridades, incluso si esos servicios hubieran sido cifrados de extremo a extremo”. Sin embargo, el abuso sigue siendo desenfrenado en las aplicaciones de Meta que utilizan aproximadamente 2.800 millones de personas todos los días. La compañía identificó y reportó 21 millones de casos de abuso sexual infantil en sus plataformas a nivel mundial en 2020. Más de 20 millones de esos reportes fueron solo de Facebook.

Al dar la bienvenida a la medida de Meta para detener su impulso de cifrado, el jefe de política en línea de seguridad infantil de la NSPCC, Andy Burrows, dijo: “Facebook tiene razón en no proceder con el cifrado de extremo a extremo hasta que tenga un plan adecuado para evitar que el abuso infantil pase sin ser detectado en sus plataformas “. Su opinión resonó con la declaración de Priti Patel en abril: “No podemos permitir una situación en la que la capacidad de las fuerzas del orden para abordar actos delictivos aborrecibles y proteger a las víctimas se vea gravemente obstaculizada”.

¿Crees que los planes de cifrado de Meta convertirían la plataforma en un refugio seguro para los abusadores sexuales de niños? ¡Comparte tus pensamientos en los comentarios a continuación!

Image – iphonehacks

Leave a Reply

Your email address will not be published. Required fields are marked *