Más de una docena de destacados expertos en ciberseguridad criticaron a Apple el jueves por confiar en “tecnología peligrosa” en su controvertido plan para detectar imágenes de abuso sexual infantil en iPhones (a través de The New York Times).

La crítica condenatoria se produjo en un nuevo estudio de 46 páginas realizado por investigadores que analizó los planes de Apple y la Unión Europea para monitorear los teléfonos de las personas en busca de material ilícito, y calificó los esfuerzos como estrategias ineficaces y peligrosas que envalentonarían la vigilancia del gobierno.

Anunciadas en agosto, las características planificadas incluyen escaneo del lado del cliente (es decir, en el dispositivo) de las bibliotecas de fotos de iCloud de los usuarios para material de abuso sexual infantil (CSAM), seguridad de la comunicación para advertir a los niños y sus padres cuando reciben o envían fotos sexualmente explícitas, y orientación ampliada de CSAM en Siri y Search.

Según los investigadores, los documentos publicados por la Unión Europea sugieren que el organismo rector del bloque está buscando un programa similar que escanee teléfonos encriptados en busca de abuso sexual infantil y signos de crimen organizado e imágenes relacionadas con terroristas.

“Debería ser una prioridad de seguridad nacional resistir los intentos de espiar e influir en los ciudadanos respetuosos de la ley”, dijeron los investigadores, quienes agregaron que estaban publicando sus hallazgos ahora para informar a la Unión Europea de los peligros de su plan.

"La expansión de los poderes de vigilancia del estado realmente está pasando por una línea roja", dijo Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge y miembro del grupo.
Aparte de las preocupaciones sobre la vigilancia, dijeron los investigadores, sus hallazgos indicaron que la tecnología no era efectiva para identificar imágenes de abuso sexual infantil. A los pocos días del anuncio de Apple, dijeron, la gente había señalado formas de evitar la detección editando ligeramente las imágenes.
"Está permitiendo el escaneo de un dispositivo privado personal sin ninguna causa probable para que se haga algo ilegítimo", agregó otro miembro del grupo, Susan Landau, profesora de ciberseguridad y políticas en la Universidad de Tufts. "Es extraordinariamente peligroso. Es peligroso para las empresas, la seguridad nacional, la seguridad pública y la privacidad".

Los investigadores de ciberseguridad dijeron que habían comenzado su estudio antes del anuncio de Apple y que estaban publicando sus hallazgos ahora para informar a la Unión Europea de los peligros de sus propios planes similares.

Apple se ha enfrentado a importantes críticas de defensores de la privacidad, investigadores de seguridad, expertos en criptografía, académicos, políticos e incluso empleados de la empresa por su decisión de implementar la tecnología en una futura actualización de iOS 15 y iPadOS 15.

Apple inicialmente se esforzó por disipar los malentendidos y tranquilizar a los usuarios mediante la publicación de información detallada, el intercambio de preguntas frecuentes, varios documentos nuevos, entrevistas con ejecutivos de la empresa y más para disipar las preocupaciones.

Sin embargo, cuando quedó claro que esto no estaba teniendo el efecto deseado, Apple reconoció posteriormente los comentarios negativos y anunció en septiembre un retraso en el lanzamiento de las funciones para que la empresa tuviera tiempo de realizar “mejoras” en el sistema CSAM, aunque no está claro qué involucrarían y cómo abordarían las inquietudes.

Apple también ha dicho que rechazará las demandas de gobiernos autoritarios para expandir el sistema de detección de imágenes más allá de las imágenes de niños marcadas por bases de datos reconocidas de material de abuso sexual infantil, aunque no ha dicho que se retiraría de un mercado en lugar de obedecer a un tribunal. pedido.

Image – macrumors

Leave a Reply

Your email address will not be published. Required fields are marked *