OpenAI anuncia el cierre de varias campañas de cibercrimen que utilizaban sus sistemas.
Cibercriminales están utilizando ChatGPT con el objetivo de intentar influir en elecciones a nivel mundial.
OpenAI, la empresa responsable de la conocida solución de inteligencia artificial generativa Chat-GPT, ha informado sobre la reciente interrupción de múltiples campañas maliciosas que estaban abusando de sus servicios. En un informe, la compañía comunicó que ha bloqueado más de 20 operaciones y redes engañosas a nivel global desde el inicio de 2024.
Las tácticas utilizadas por los delincuentes variaron en cuanto a naturaleza, tamaño y objetivos. En algunos casos, los atacantes empleaban la inteligencia artificial para depurar malware, mientras que en otras ocasiones la utilizaban para crear contenidos, como artículos para sitios web, biografías falsas en redes sociales y fotos de perfil ficticias.
A pesar de la gravedad de estas acciones, OpenAI ha afirmado que los actores de amenazas no lograron avanzar de manera significativa con estas campañas. La empresa aclaró que, aunque los delincuentes continuaron evolucionando y experimentando con sus modelos, no se han observado pruebas que indiquen que esto conducirá a avances significativos en la creación de malware nuevo o en la construcción de audiencias virales.
Dado que 2024 es un año electoral, no solo en Estados Unidos, sino en muchas partes del mundo, OpenAI ha detectado que ChatGPT ha sido utilizado por actores malintencionados para influir en las campañas preelectorales. Se mencionó un grupo específico llamado “Zero Zeno”, ubicado en Israel, que logró generar comentarios en redes sociales sobre las elecciones en India, aunque esta campaña fue interrumpida menos de 24 horas después de su inicio.
Además, en junio de 2024, justo antes de las elecciones del Parlamento Europeo, OpenAI detuvo una operación denominada “A2Z”, que se centraba en Azerbaiyán y sus países vecinos. Otras acciones destacadas incluyeron la generación de comentarios sobre las elecciones del Parlamento Europeo en Francia, así como discusiones políticas en Italia, Polonia, Alemania y Estados Unidos.
Afortunadamente, ninguna de estas campañas logró un impacto significativo, y tras el bloqueo de OpenAI, cesaron completamente. La mayoría de las publicaciones en redes sociales identificadas como generadas por sus modelos no recibieron likes, compartidos ni comentarios, aunque se registraron algunas ocasiones en las que personas reales respondieron a dichas publicaciones. OpenAI concluyó que, después de restringir el acceso a sus modelos, las cuentas en redes sociales asociadas a estas operaciones dejaron de publicar durante los periodos electorales en la Unión Europea, el Reino Unido y Francia.