Cover Image for Los ataques de fraude de identidad mediante IA engañan a los sistemas de seguridad biométrica.

Los ataques de fraude de identidad mediante IA engañan a los sistemas de seguridad biométrica.

Las selfies sintéticas generadas completamente por deepfake podrían eludir los procedimientos tradicionales de verificación de identidad (KYC).

El reciente informe Global Identity Fraud Report de AU10TIX ha puesto de relieve un preocupante aumento en el fraude de identidad, principalmente impulsado por un uso extensivo de ataques basados en inteligencia artificial. Entre julio y septiembre de 2024, el análisis de millones de transacciones reveló que las plataformas digitales, especialmente en redes sociales, pagos y criptomonedas, se enfrentan a retos sin precedentes.

Las tácticas de fraude han evolucionado significativamente, pasando de simples falsificaciones documentales a la creación de identidades sintéticas más sofisticadas, imágenes deepfake y bots automatizados que logran evadir los sistemas de verificación tradicionales. Durante la fase previa a las elecciones presidenciales estadounidenses de 2024, las plataformas sociales experimentaron un notable aumento en los ataques automatizados, representando el 28% de todos los intentos de fraude en el tercer trimestre de 2024, en contraste con solo el 3% en el primer trimestre.

Estos ataques, que se centran en desinformación y manipulación de la opinión pública, utilizan elementos avanzados de Generative AI (GenAI) para evitar ser detectados. Los ataques apoyados por GenAI comenzaron a proliferar en marzo de 2024, alcanzando su pico en septiembre, y se considera que tienen un impacto significativo en la percepción pública al difundir narrativas falsas y contenidos inflamatorios.

Una de las revelaciones más alarmantes del informe es la aparición de selfies sintéticas 100% deepfake, imágenes hiperrrealistas diseñadas para imitar características faciales auténticas, con el fin de eludir las verificaciones. A pesar de que antes los selfies se consideraban un método confiable para la autenticación biométrica, la tecnología necesaria para falsificarlos de manera convincente ahora está al alcance de los delincuentes.

AU10TIX señala que estas selfies sintéticas representan un desafío único para los procedimientos tradicionales de KYC (Conozca a su cliente). Esto sugiere que las organizaciones que dependen exclusivamente de la tecnología de coincidencia facial necesitarán reevaluar y fortalecer sus métodos de detección.

Además, los fraudes están utilizando inteligencia artificial para generar variaciones de identidades sintéticas, empleando ataques de “plantilla de imagen”. Esto implica manipular una sola plantilla de identificación para crear múltiples identidades únicas, con elementos fotográficos aleatorios y otros identificadores personales. Esto permite a los atacantes establecer rápidamente cuentas fraudulentas en diversas plataformas, aprovechando la capacidad de AI para escalar la creación de identidades sintéticas.

En el sector de los pagos, la tasa de fraude disminuyó de un 52% en el segundo trimestre a un 39% en el tercero, y AU10TIX atribuye este avance a un mayor control regulatorio y a intervenciones de las fuerzas del orden. Sin embargo, a pesar de la reducción en los ataques directos, la industria de pagos sigue siendo la más atacada, con muchos delincuentes, disuadidos por la seguridad incrementada, dirigiendo su atención hacia el mercado de criptomonedas, que representó el 31% de todos los ataques en el tercer trimestre.

AU10TIX aconseja a las organizaciones que abandonen los métodos tradicionales de verificación basados en documentos. Una recomendación clave es adoptar sistemas de detección basados en el comportamiento que vayan más allá de los chequeos de identidad estándar. Analizando patrones en el comportamiento del usuario, como rutinas de inicio de sesión y fuentes de tráfico, las empresas pueden identificar anomalías que indiquen actividad fraudulenta potencial.

Dan Yerushalmi, CEO de AU10TIX, señala que los delincuentes están evolucionando rápidamente, aprovechando la inteligencia artificial para escalar y ejecutar sus ataques, especialmente en los sectores de redes sociales y pagos. Mientras las empresas utilizan AI para mejorar la seguridad, los criminales también están armando la misma tecnología para crear selfies sintéticas y documentos falsos, lo que dificulta casi por completo su detección.