Cover Image for Apple enfrenta acusaciones por subestimar la presencia de CSAM en sus plataformas.

Apple enfrenta acusaciones por subestimar la presencia de CSAM en sus plataformas.

Una organización benéfica dedicada a la protección infantil sostiene que Apple está rezagada en comparación con otras compañías en la lucha contra el abuso sexual infantil, acusándola de no informar adecuadamente sobre los casos de material de abuso sexual infantil.

Apple ha sido objeto de acusaciones por supuestamente subestimar la cantidad de material relacionado con el abuso sexual infantil (CSAM, por sus siglas en inglés) que se encuentra en sus plataformas. La National Society for the Prevention of Cruelty to Children (NSPCC), una organización benéfica dedicada a la protección de la infancia en el Reino Unido, indicó que el año pasado la compañía reportó solo 267 casos sospechosos de CSAM al National Center for Missing & Exploited Children (NCMEC). Esta cifra contrasta significativamente con los 1.47 millones de casos reportados por Google y los 30.6 millones de Meta. Otras plataformas que también han reportado más casos sospechosos que Apple en 2023 incluyen TikTok, con 590,376 casos, X con 597,087, Snapchat con 713,055, Xbox con 1,537 y PlayStation/Sony Interactive Entertainment con 3,974.

Además, la NSPCC reveló que Apple estuvo implicada en 337 casos de CSAM en Inglaterra y Gales entre abril de 2022 y marzo de 2023, cifra que excede el total de reportes a nivel global que hizo la compañía en un año. Para recopilar esta información, la organización utilizó solicitudes de libertad de información dirigidas a las fuerzas policiales.

De acuerdo con información publicada, servicios de Apple como iMessage, FaceTime e iCloud cuentan con cifrado de extremo a extremo, lo que impide que la compañía acceda al contenido que los usuarios comparten. Sin embargo, WhatsApp también ofrece este tipo de cifrado y reportó casi 1.4 millones de casos sospechosos de CSAM al NCMEC en 2023. Richard Collard, encargado de políticas de seguridad infantil online en NSPCC, expresó su preocupación por la «notoria discrepancia» entre el número de delitos de imágenes de abuso infantil en los servicios de Apple y la casi insignificante cantidad de reportes globales que la empresa hace a las autoridades. Collard añadió que Apple debería avanzar en sus esfuerzos para abordar el abuso sexual infantil, especialmente con la próxima implementación de la Online Safety Act en el Reino Unido.

En el año 2021, Apple anunció una iniciativa para implementar un sistema que escanearía imágenes antes de ser subidas a iCloud, comparándolas con una base de datos de imágenes de CSAM conocidas. Sin embargo, tras la oposición de defensores de la privacidad y los derechos digitales, la compañía retrasó la implementación de estas herramientas de detección de CSAM, y finalmente abandonó el proyecto en 2022.

Al ser consultada sobre las acusaciones de la NSPCC, Apple se negó a comentar, pero remitió a publicaciones anteriores donde mencionaron que optaron por una estrategia que prioriza la seguridad y privacidad de sus usuarios. La compañía también expresó en agosto de 2022 que "se puede proteger a los niños sin que las empresas escudriñen datos personales".

  • Apple
  • CSAM
  • Protección infantil