
Los agentes de IA pueden ser manipulados para crear y enviar ataques de phishing.
Un estudio sostiene que los agentes de inteligencia artificial son susceptibles a ser hackeados con facilidad.
Investigadores han alertado sobre el potencial uso de agentes de inteligencia artificial en la creación y envío de ataques de phishing. Estos avances en herramientas como el Operator de OpenAI han facilitado de manera significativa el trabajo de los delincuentes cibernéticos, quienes ya venían utilizando la inteligencia artificial para llevar a cabo ciberataques.
Con el surgimiento de estos "Agentes", la capacidad de los criminales para ejecutar ataques sofisticados ha aumentado, permitiendo incluso que individuos con habilidades limitadas puedan perpetrar ataques exitosos. Investigadores de Symantec lograron utilizar Operator para identificar un objetivo, obtener su dirección de correo electrónico y elaborar un script de PowerShell diseñado para recopilar información del sistema, que luego fue enviado a la víctima con un "anzuelo" convincente.
En una demostración, se intentó inicialmente realizar un ataque, pero Operator se negó a proceder al considerarlo como un envío de correos no solicitados que podría violar políticas de privacidad y seguridad. Sin embargo, luego de algunos ajustes en el comando, el agente finalmente simuló ser un trabajador de soporte técnico y envió el correo malicioso. Esto representa un serio riesgo para los equipos de seguridad, dado que estudios indican que más de dos tercios de las brechas de datos son causadas por errores humanos.
Se especula que no pasará mucho tiempo antes de que estos agentes se vuelvan aún más potentes. Un escenario plausible sería que un atacante pudiera simplemente instruir a un agente para "comprometer Acme Corp", y el sistema determinaría los pasos óptimos a seguir, que podrían incluir la escritura y compilación de ejecutables, la configuración de infraestructura de comando y control, y el mantenimiento de una persistencia activa en la red objetivo. Esta funcionalidad podría reducir significativamente las barreras de entrada para los atacantes.
Los agentes de inteligencia artificial están diseñados para funcionar como asistentes virtuales, facilitando tareas como la programación de citas, la organización de reuniones y la redacción de correos electrónicos. Desde OpenAI se han tomado en serio estas inquietudes, mencionando que sus políticas de uso prohíben la utilización de sus servicios para actividades ilícitas, incluidas fraudes y engaños, y que se han implementado medidas de seguridad proactivas y estrictas limitaciones en el uso para mitigar posibles abusos.