Cover Image for Apple enfrenta una demanda por dejar de lado la detección de CSAM en iCloud.

Apple enfrenta una demanda por dejar de lado la detección de CSAM en iCloud.

Apple enfrenta una demanda por haber optado por no implementar un sistema destinado a escanear fotos en iCloud en busca de material de abuso sexual infantil (CSAM). La acción legal...

Apple enfrenta una demanda debido a su decisión de no implementar un sistema que habría escaneado las fotos de iCloud en busca de material de abuso sexual infantil (CSAM). Este proceso judicial argumenta que la falta de acciones concretas para prevenir la difusión de dicho contenido obliga a las víctimas a revivir sus traumas, según informes. Se menciona que Apple presentó “un diseño mejorado que se promovió ampliamente con el objetivo de proteger a los niños”, pero luego falló en “implementar esos diseños o tomar medidas para detectar y limitar” la proliferación de este material.

La compañía había anunciado el sistema en 2021, que consistiría en utilizar firmas digitales del National Center for Missing and Exploited Children y otras organizaciones para identificar contenido de CSAM conocido en las bibliotecas de iCloud de los usuarios. Sin embargo, esos planes parecían haberse desechado tras las advertencias de defensores de la privacidad y la seguridad, quienes señalaron que dicho sistema podría abrir una puerta trasera para la vigilancia gubernamental.

La demanda proviene de una mujer de 27 años que se presenta bajo un seudónimo. Ella reveló que fue víctima de abuso en su infancia por parte de un familiar, quien compartió imágenes suyas en internet, y que sigue recibiendo notificaciones de las autoridades casi a diario sobre personas que han sido acusadas por poseer dichas imágenes. El abogado James Marsh, involucrado en el caso, indicó que hay un grupo potencial de 2,680 víctimas que podrían tener derecho a una compensación.

Un portavoz de Apple declaró que la empresa está “innovando de manera urgente y activa para combatir estos crímenes sin comprometer la seguridad y privacidad de todos nuestros usuarios”. En agosto, una niña de 9 años junto a su tutor también demandó a Apple, acusando a la compañía de no abordar adecuadamente el CSAM en iCloud.