Una nueva función de seguridad en iMessage anima a los niños a informar sobre imágenes explícitas a Apple.
Apple está ampliando las funcionalidades de seguridad en sus comunicaciones.
Apple está implementando una nueva funcionalidad de seguridad infantil que permite a los niños enviar un informe a la compañía si reciben fotos o videos que contengan desnudez. Esta función será parte de la característica de Seguridad en las Comunicaciones que ya estaban utilizando, la cual escanea en el dispositivo para detectar contenido inapropiado en imágenes o videos enviados a través de Mensajes, AirDrop o Contact Poster, y los difumina al momento.
Cuando se recibe un contenido con desnudez, además de ocultar la imagen o video, el sistema presenta una ventana emergente con varias opciones, tales como contactar a un adulto, acceder a recursos de ayuda o bloquear al remitente. Esta nueva opción, que actualmente se está probando en Australia en la versión iOS 18.2, permitirá a los usuarios informar a Apple sobre cualquier imagen o video que incluya desnudez.
El dispositivo generará un informe que contendrá los archivos multimedia, así como los mensajes intercambiados antes y después de la recepción. Este informe incluirá la información de contacto de ambas cuentas, y los usuarios podrán completar un formulario explicando lo sucedido. Con esa información, Apple evaluará el informe y podrá tomar decisiones como restringir el envío de iMessages o notificar a las autoridades competentes.
En una noticia relacionada, Google anunció esta semana la expansión de su función de escaneo en el dispositivo en su aplicación de Android, que incorporará una advertencia de contenido sensible opcional, la cual difumina imágenes con desnudez y proporciona recursos para obtener ayuda. Esta función se activará de manera predeterminada para los usuarios menores de 18 años.
Apple tiene planes de implementar esta nueva funcionalidad a nivel mundial, aunque aún no ha especificado una fecha exacta para su lanzamiento. La compañía no respondió de inmediato a solicitudes de comentarios sobre esta nueva función. En 2021, Apple había anunciado una serie de características enfocadas en la seguridad infantil, que incluían el escaneo de la biblioteca de Fotos de iCloud de un usuario en busca de material de abuso sexual infantil y alertas a los padres si sus hijos enviaban o recibían fotos explícitas. Sin embargo, después de la reacción negativa de defensores de la privacidad, Apple decidió posponer las características y finalmente abandonó el plan de escaneo en diciembre de 2022.