Las organizaciones enfrentan una importante discrepancia entre sus protocolos de protección de datos y las prácticas reales.
La adopción de la inteligencia artificial avanza más rápido que las medidas de seguridad de datos.
La inteligencia artificial (IA) ha transformado la manera en que las organizaciones realizan sus operaciones, ofreciendo desde la optimización de procesos hasta la automatización de tareas complejas. Sin embargo, a medida que esta tecnología se vuelve más común, se ha identificado que la rápida adopción de la IA puede tener consecuencias imprevistas. Un informe de Swimlane destaca que, aunque la IA brinda beneficios significativos, su implementación ha superado la capacidad de muchas empresas para proteger datos sensibles.
Con la integración profunda de la IA en el funcionamiento diario de las organizaciones, éstas deben afrontar riesgos asociados, como filtraciones de datos, incumplimientos regulatorios y fallos en los protocolos de seguridad. Los Modelos de Lenguaje Grande (LLM) funcionan a través de conjuntos de datos extensos, que a menudo incluyen información disponible públicamente. Estos conjuntos de datos pueden incluir texto extraído de plataformas como Wikipedia, GitHub y otras fuentes en línea, lo que sugiere que si la información de una empresa está accesible en línea, probablemente será utilizada para entrenar estos modelos.
El estudio revela una diferencia significativa entre las políticas establecidas y su aplicación real al compartir datos con LLMs públicos. Aunque un 70% de las organizaciones asegura contar con protocolos específicos para proteger el intercambio de información sensible, el 74% de los encuestados es consciente de que aún hay personas dentro de sus empresas que ingresan datos confidenciales en estas plataformas. Este hallazgo pone de manifiesto una grave falla en la aplicación de las medidas de seguridad y en la conformidad de los empleados con estas políticas.
Además, el constante bombardeo de mensajes relacionados con la IA está generando agotamiento en los profesionales. Un 76% de los encuestados opina que el mercado está saturado de exageraciones sobre la IA, lo cual ha contribuido a una fatiga por sobreexposición, reflejada en que más de la mitad de los encuestados (un 55%) se siente abrumada por el enfoque persistente en esta tecnología. Esto indica que la industria tal vez deba reexaminar su manera de promover la IA.
Curiosamente, a pesar de esta sensación de saturación, la experiencia en tecnologías de IA y aprendizaje automático (ML) se ha convertido en un elemento clave en las decisiones de contratación. Un notable 86% de las organizaciones señala que la familiaridad con la IA es un factor importante para evaluar la idoneidad de los candidatos. Esto demuestra cómo la IA está siendo cada vez más integrada no solo en herramientas de ciberseguridad, sino también en el personal necesario para gestionarlas.
En el ámbito de la ciberseguridad, los efectos de la IA y los LLM han sido positivos, con un 89% de las organizaciones atribuyendo a estas tecnologías un aumento en la eficiencia de sus equipos de ciberseguridad.