Cover Image for Las teorías de conspiración no pueden competir con un chatbot de inteligencia artificial, al parecer.

Las teorías de conspiración no pueden competir con un chatbot de inteligencia artificial, al parecer.

Tecnología frente a mitos sobre gatos y su alimentación.

Un reciente estudio sugiere que un chatbot de inteligencia artificial puede ayudar a las personas a reconsiderar sus creencias en teorías de conspiración. Este análisis se produjo en un contexto donde se reportaron abundantes desinformaciones y teorías conspirativas, especialmente en torno al debate presidencial reciente. Algunas afirmaciones absurdas, como la idea de que los inmigrantes haitianos en Ohio estaban comiendo mascotas, fueron desmentidas por las autoridades locales, pero estas falacias seguían propagándose en la web.

Investigadores han alertado sobre la velocidad con la que se difunden las teorías conspirativas, y estudios anteriores indicaban que muchos individuos no eran fácilmente persuadidos por hechos contrarios a sus creencias. Sin embargo, el estudio publicado ofrece un nuevo enfoque esperanzador. Se investigó el impacto de conversaciones con un chatbot impulsado por inteligencia artificial generativa sobre personas que sostenían creencias en teorías conspirativas populares, tales como la idea de que los ataques del 11 de septiembre fueron orquestados por el gobierno estadounidense, o que el virus COVID-19 fue creado por "elites globales" para controlar a la población.

La investigación involucró a 2,190 participantes que mantuvieron diálogos personalizados con el modelo GPT-4 Turbo de OpenAI, discutiendo una teoría de conspiración de su elección. Los resultados mostraron una disminución del 20% en la creencia en estas teorías después de las conversaciones; es decir, una cuarta parte de los participantes dejaron de seguir la teoría discutida, y esta reducción se mantuvo dos meses tras la interacción.

David Rand, coautor del estudio y profesor en el MIT, destacó que los resultados demuestran que las mentes pueden cambiarse con información factible, a pesar del escepticismo general al respecto. "Los hechos y las pruebas son relevantes para una parte considerable de las personas", afirmó Rand. Aunque los autores no compararon la eficacia del chatbot con la influencia de un amigo o familiar, especulan que el éxito del chatbot se debe a su capacidad para proporcionar hechos precisos de manera rápida y eficaz.

En un ejemplo de la interacción, un participante que creía que los ataques del 11 de septiembre eran una farsa recibió una detallada explicación científica sobre cómo se colapsaron las Torres Gemelas sin explosivos. Su nivel de confianza en la teoría disminuyó significativamente de 100% a 40% tras la conversación. A diferencia de interacciones humanas, el chatbot carece de las dinámicas personales que pueden influir en cómo se perciben las informaciones contradictorias.

Los investigadores también exploraron la confianza de los participantes en la inteligencia artificial, encontrando que aquellos con mayor confianza en esta tecnología eran más propensos a cuestionar sus creencias en teorías conspirativas. Cabe destacar que se contrató a un verificador de hechos para garantizar que la información proporcionada por el chatbot fuera veraz, lo que resultó en una aprobación casi total de las afirmaciones presentadas.

En el futuro, los autores del estudio imaginan la posibilidad de integrar chatbots en plataformas de redes sociales para combatir teorías conspirativas en circulación. Sin embargo, Rand también es consciente de los peligros que conlleva esta tecnología, ya que podría ser utilizada por actrices malintencionadas para promocionar teorías conspirativas. Al final, la viabilidad del uso de estos modelos dependerá de su desarrollo continuo y su precisión.

  • inteligencia artificial
  • teorías conspirativas
  • desinformación