Cover Image for OpenAI cierra una operación de influencia electoral que utilizaba ChatGPT.

OpenAI cierra una operación de influencia electoral que utilizaba ChatGPT.

OpenAI ha prohibido un grupo de cuentas de ChatGPT relacionadas con una operación de influencia iraní que estaba creando contenido sobre las elecciones presidenciales en EE. UU.

OpenAI ha tomado la decisión de clausurar un grupo de cuentas de ChatGPT que estaban asociadas con una operación de influencia proveniente de Irán. Esta actividad se centraba en generar contenido relacionado con las elecciones presidenciales de EE.UU. Según se ha informado, la operación producía artículos y publicaciones en redes sociales generados por inteligencia artificial, aunque su impacto parece haber sido limitado en términos de audiencia.

Este no es el primer incidente en el que OpenAI ha cerrado cuentas vinculadas a actores estatales que utilizan ChatGPT de manera malintencionada. En mayo, la empresa interrumpió cinco campañas que intentaban manipular la opinión pública mediante esta herramienta. Estos sucesos recuerdan las tácticas de algunos actores gubernamentales que, en el pasado, han utilizado plataformas de redes sociales como Facebook y Twitter para influir en ciclos electorales. Actualmente, grupos similares, o incluso los mismos, han comenzado a emplear inteligencia artificial generativa para inundar las redes sociales con desinformación.

OpenAI parece estar adoptando un enfoque tipo "whack-a-mole", eliminando cuentas vinculadas a estas actividades conforme aparecen. La compañía destacó que su investigación sobre este grupo de cuentas se benefició de un informe de inteligencia de amenazas de Microsoft publicado la semana pasada. Este informe identificó a la red, denominada Storm-2035, como parte de una campaña más amplia para influir en las elecciones de EE.UU., actividad que se ha estado llevando a cabo desde 2020.

Según Microsoft, Storm-2035 es una red iraní que cuenta con múltiples sitios que imitan a medios de comunicación y que se involucra activamente con grupos votantes estadounidenses de diferentes posiciones políticas, promoviendo mensajes polarizadores sobre temas como los candidatos presidenciales, los derechos LGBTQ y el conflicto Israel-Hamas. El objetivo de estas operaciones no es tanto promover una política específica, sino más bien sembrar desacuerdos y conflictos.

OpenAI encontró cinco sitios web que operaban bajo la fachada de Storm-2035, presentándose como medios informativos tanto progresistas como conservadores, utilizando nombres de dominio que parecían legítimos, como “evenpolitics.com.” Utilizando ChatGPT, el grupo generó varios artículos extensos, incluido uno que afirmaba que “X censura los tweets de Trump,” una afirmación que no se sostiene por la actividad actual en la plataforma, que ha mostrado una tendencia a alentar al expresidente Donald Trump a participar más en esta red.

A través de las redes sociales, OpenAI señala haber detectado una docena de cuentas en X y una en Instagram asociadas con esta operación. Se utilizó ChatGPT para reescribir varios comentarios políticos que fueron luego publicados en estas plataformas. Uno de esos tweets afirmaba erróneamente que Kamala Harris atribuía “el aumento de los costos de inmigración” al cambio climático, seguido de “#DumpKamala.” A pesar de esta actividad, OpenAI reportó que no había evidencias de que los artículos de Storm-2035 se compartieran ampliamente y la mayoría de sus publicaciones en redes sociales recibieron pocos o ningún "me gusta", compartidos o comentarios.

Este fenómeno es común entre tales operaciones, que son rápidas y económicas de implementar utilizando herramientas de IA como ChatGPT. Se anticipa que surgirán más avisos de este tipo a medida que se acerquen las elecciones y aumenten las disputas partidistas en línea.

  • desinformación
  • elecciones
  • inteligencia artificial