Apple pretende instalar un software en el iPhone para buscar pornografía infantil o imágenes de abuso sexual a menores. El sistema se implementará, inicialmente, solo en Estados Unidos, informó Financial Times.

Sin embargo, indicó que esto ha generado alarma entre los investigadores de seguridad porque “podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas”.

Apple confirmó sus planes en un blog argumentando que la tecnología de escaneo es parte de un nuevo conjunto de sistemas de protección infantil que “evolucionaria y expandiría” con el tiempo, y serán parte de las funciones de iOS 15. Espera lanzarlo en septiembre, señaló el diario.

La empresa tecnológica detalló la operación del software conocido como “neutralMach” a algunos académicos estadunidenses, “según dos investigadores de seguridad informados sobre la reunión virtual”, indicó.

¿Cómo funciona “neutralMatch”?

FOTO: MARÍA JOSÉ MARTÍNEZ /CUARTOSCURO.COM

Según Financial Times, este software alertaría de manera proactiva a un equipo de revisores humanos cuando detecte imágenes ilegales y éstos se pondrán en contacto con las autoridades para verificar el material.

El algoritmo “neutralMatch” escaneará continuamente las fotos almacenadas en el Apple de un usuario en Estados Unidos y las que están en el respaldo del iCloud, las convertirá en una serie de números mediante un proceso conocido como “hash” y las comparará con una base de datos de 200 mil imágenes conocidas de abuso sexual infantil que recopiló el NCMEC (National Center for Missing & Exploited Children).

Cada fotografía recibirá un “vale de seguridad” para identificarla como sospechosa y cuando se recopile “cierto número”, Apple permitirá que sean descifradas y, si son ilegales, las enviará a las autoridades correspondientes.

“Esta nueva tecnología innovadora permite a Apple proporcionar información valiosa y procesable al Centro Nacional para Niños Desaparecidos y Explotados y a las fuerzas del orden con respecto a la proliferación de CSAM (tecnología para detectar material de abuso sexual infantil en línea) conocido”, señaló Apple.

A la par, señaló la empresa, proporcionará importantes beneficios de privacidad sobre las técnicas existentes, ya que Apple solo se enterará de las fotos de los usuarios si tienen una colección de CSAM en su cuenta de iCloud Photos.

De esta manera, Apple intenta hacer valer el compromiso de proteger la privacidad de sus clientes y las demandas de los gobiernos, las agencias de aplicación de la ley y los defensores de la seguridad infantil para ayudar en las investigaciones criminales, el terrorismo y la pornografía infantil.

En 2006, Apple acudió al FBI por el acceso al iPhone de un sospechoso de terrorismo, tras un tiroteo en San Bernardino, California.

¿Qué opinan los investigadores?

Pese a apoyar los esfuerzos para combatir la pornografía y el abuso sexual infantil, dijeron estar preocupados porque Apple corre el riesgo de permitir a los gobiernos, en todo el mundo, que busquen acceder a los datos personales de sus ciudadanos, más allá de su intención original.

“Es una idea absolutamente espantosa porque conducirá a una vigilancia masiva distribuida de nuestros teléfonos y computadoras portátiles”, consideró el profesor de ingeniería de seguridad de la Universidad de Cambridge, Ross Anderson.

El sistema actualmente está capacitado para detectar el abuso infantil, pero podría adaptarse para buscar imágenes y textos específicos como decapitaciones terroristas o cárteles antigubernamentales en protestas, señalaron los investigadores.

Esto también aumentaría la presión sobre otras empresas tecnológicas para usar técnicas similares.

“Esto romperá la presa, los gobiernos se lo exigirán a todos”, afirmó el profesor de seguridad de la Universidad Johns Hopkins, Matthew Green.

La medida tomada por Apple es “tectónica” y “un paso enorme y regresivo para la privacidad individual. Apple está retrocediendo la privacidad para habilitar ‘1984’ (la novela escritas por George Orwell)”, aseguró un investigador –no se citó el nombre– y activista de privacidad que ha trabajado para Facebook y Deliveroo.

Para el profesor de seguridad informática de la Universidad de Surrey, Alan Woodward, el sistema de Apple es menos invasivo porque la detección se realiza en el teléfono y “solo si hay una coincidencia se envía una notificación a quienes realizan la búsqueda. Este enfoque descentralizado es el mejor que podría adoptar si toma esa ruta”.

Con información de Proceso.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí