Cover Image for ¿Serán los LLMs los mediadores definitivos, para bien o para mal? Investigadores de DeepMind y usuarios de Reddit parecen coincidir en esto.

¿Serán los LLMs los mediadores definitivos, para bien o para mal? Investigadores de DeepMind y usuarios de Reddit parecen coincidir en esto.

Algunos expertos en inteligencia artificial consideran que eliminar a los humanos del proceso podría ser una solución efectiva para alcanzar un acuerdo amigable.

Expertos en inteligencia artificial opinan que los modelos de lenguaje de gran tamaño (LLMs) podrían desempeñar un rol como mediadores en situaciones donde las partes no logran llegar a un acuerdo. Una investigación reciente realizada por un equipo de Google DeepMind se enfocó en la viabilidad de utilizar LLMs en este contexto, especialmente para resolver disputas en un entorno político global altamente polarizado.

Según los autores del estudio, “lograr acuerdos a través de un intercambio libre de opiniones es a menudo complicado”. El proceso de deliberación colectiva puede ser lento, difícil de escalar y no siempre equitativo en la atención a las diferentes voces.

Como parte del proyecto, el equipo desarrolló una serie de LLMs denominados “Máquinas de Habermas” (HM) que fueron entrenadas específicamente para identificar creencias comunes y superpuestas entre individuos con posturas políticas opuestas. Los temas abordados por estos modelos incluyeron cuestiones divisivas como la inmigración, el Brexit, los salarios mínimos, la educación infantil universal y el cambio climático.

El mediador AI, según los autores, genera y refina de manera iterativa declaraciones que reflejan un terreno común entre el grupo sobre temas sociales o políticos, basándose en las opiniones y críticas de los participantes. Durante el proyecto, los voluntarios interactuaron con el modelo, que utilizó las perspectivas individuales sobre ciertos temas políticos.

Los documentos resumidos sobre las opiniones políticas de los voluntarios fueron recopilados por el modelo, que proporcionó un contexto adicional para ayudar a reducir las divisiones. Los resultados del estudio fueron muy prometedores, ya que los voluntarios evaluaron las declaraciones generadas por las HM más positivamente que las realizadas por mediadores humanos en los mismos temas.

Tras la discusión en grupos, se observó que los participantes mostraban menos divisiones después de leer las declaraciones de las HM en comparación con los documentos de mediadores humanos. “Las declaraciones de opinión grupal generadas por la Máquina de Habermas fueron consistentemente preferidas por los miembros del grupo sobre aquellas escritas por mediadores humanos, y recibieron calificaciones más altas de jueces externos en calidad, claridad, información y equidad percibida”, concluyeron los investigadores.

El estudio también observó que el “apoyo a la posición mayoritaria” sobre ciertos temas aumentó post deliberación apoyada por AI, aunque las HM incorporaron críticas de minorías en las declaraciones revisadas. Esto sugiere que, durante la deliberación mediada por AI, las opiniones de los grupos tendían a moverse en dirección similar sobre temas controvertidos, sin que esto se atribuyera a sesgos del AI, lo que indicaría que el proceso realmente facilitó la aparición de perspectivas compartidas en cuestiones sociales y políticas potencialmente polarizadoras.

Existen ya ejemplos en la vida real de LLMs utilizados para resolver disputas, especialmente en relaciones personales. Algunos usuarios de Reddit han comentado acerca de su uso de ChatGPT para mediar en desacuerdos. Un usuario compartió que su pareja recurría al chatbot "cada vez" que tenían una discrepancia, lo que generaba cierta fricción en su relación.

El usuario expresó que su compañera regresaba con argumentos bien estructurados tras discutir con ChatGPT, lo que generaba tensiones. “Le he explicado que no me gusta que lo haga, ya que puede sentirse como si fuera atacado con opiniones de un robot”, relató. A menudo, al expresar su malestar, le respondieron que “ChatGPT dice que eres inseguro” o “ChatGPT dice que no tienes la capacidad emocional para entender lo que estoy diciendo”.