Apple ha postergado por tiempo indefinido su plan de revisar todos los iPhones en Estados Unidos en busca de posibles imágenes de abuso sexual de menores, luego de que expertos en seguridad y privacidad protestaran, advirtiendo que la tecnología podría ser explotada con otros fines de vigilancia por piratas informáticos y gobiernos intrusivos.
El anuncio de la compañía se dio luego de que el mes pasado Apple revelara que se preparaba para lanzar una herramienta informática para detectar automáticamente imágenes de abuso sexual infantil, la cual funcionaría mediante el escaneo de archivos antes de que fueran subidos a su servicio de nube iCloud. La empresa también dijo que trabaja en otro programa que le permitiría detectar contenidos explícitamente sexuales en mensajes cifrados.
Apple insistió en que su tecnología se había desarrollado de una manera que protegería la privacidad de los propietarios de iPhone en Estados Unidos. La compañía de Cupertino, sin embargo, recibió un mar de críticas por parte de expertos en seguridad, grupos de derechos humanos y clientes preocupados de que la tecnología de escaneo podría abrir una mirilla exponiendo información personal y sensible.
“Con base en las respuestas que hemos recibido de clientes, grupos activistas, investigadores y otros, hemos decidido tomarnos más tiempo para recibir asesoría y hacer las mejoras necesarias antes de emitir estas importantes herramientas de protección infantil”, declaró la compañía en su página de internet.
Apple nunca fijó una fecha específica para la implementación de la tecnología de escaneo, más allá de decir que ocurriría en algún momento de este año. Se espera que la compañía presente su próximo iPhone a finales de mes, pero no queda claro si utilizará el evento para discutir más a fondo su cambio de planes respecto al escaneo de dispositivos en el país.
Matthew Green, experto en criptografía de la Universidad Johns Hopkins, advirtió en agosto que el sistema podría ser usado para acusar falsamente a personas inocentes, mediante el envío de imágenes aparentemente inocuas diseñadas para detonar alarmas por pornografía infantil. Ello podría engañar al algoritmo de Apple y llevar a la detención injusta de la persona.
Poco después de que Green y otros sonaron la alarma sobre las fallas del programa, un desarrollador dijo haber hallado la manera de abusar del software, que está diseñado para interpretar las huellas digitales matemáticas que conforman una imagen.
Green afirmó el viernes que Apple estaba tomando la decisión correcta y sugirió que la compañía busque asesoría de expertos y activistas antes de aplicar una reforma que pueda amenazar la privacidad de la gente.
“La compañía debe acumular el apoyo necesario antes de lanzar algo como esto”, afirmó Green en una entrevista. “Esta es una escalada enorme: de escanear casi nada a escanear los archivos privados”.
Green mencionó la posibilidad de que Apple se haya visto sorprendida por el amplio rechazo a la medida debido a que la elaboró en medio de un gran hermetismo, tratándola como si fuese el lanzamiento de un nuevo otro producto.
Por Agencia