Una nueva función creada para proteger a los niños de recibir desnudos está configurada para aparecer en la última actualización de iPhone.
La herramienta funciona escaneando mensajes en busca de posibles tomas desnudas y difuminándolas de la vista.
Apple anunció la idea de prevención contra el acoso sexual infantil a principios de este año, pero la retrasó después de una protesta por la privacidad.
These are some of the new features introduced in Apple's iOS 15.2 update:
– Nudity detection in the Messages app
– Features for transferring your data when you die
– Additional privacy controls https://t.co/6r9jCW8UvN pic.twitter.com/pBesGSiICg— Bloomberg Quicktake (@Quicktake) December 14, 2021
La función analiza los mensajes de las cuentas que pertenecen a niños.
Si el niño intenta enviar sus propias fotografías de desnudos, también aparecerán borrosas.
También se mostrará un botón que les permitirá ponerse en contacto con sus padres en mensajes sobre posibles pervertidos en línea.
Sin embargo, los padres deben configurarlo como una cuenta para compartir en familia para que esta aplicación funcione.
El gigante tecnológico ha reducido su plan, que originalmente incluía un controvertido escáner para detectar imágenes de abuso sexual infantil en las cuentas de iCloud.
Fue diseñado para filtrar automáticamente imágenes cargadas al servicio de almacenamiento en la nube de Apple y compararlas con contenido de abuso sexual ya conocido por las autoridades.
A pesar de las buenas intenciones de la compañía, se encontró con preocupaciones sobre la privacidad y temores de que los gobiernos pudieran usarla para espiar a las personas.
Apple se echó atrás y decidió retrasarlo para “realizar mejoras”.
Otras características que se espera que lleguen a iOS 15.2 incluyen opciones de cámara adicionales y un nuevo informe de privacidad que muestra a qué datos han accedido las aplicaciones.
La nueva versión de iOS todavía está en prueba y se prevé que se lanzará más adelante en diciembre.
Por Agencia