Cover Image for OpenAI está probando su capacidad de persuasión

OpenAI está probando su capacidad de persuasión

Sam Altman está promocionando la capacidad de la inteligencia artificial para influir en el comportamiento de las personas. Además, su empresa está lidiando con los riesgos asociados.

Esta semana, Sam Altman, CEO de OpenAI, y Arianna Huffington, fundadora y CEO de la empresa de salud Thrive Global, publicaron un artículo en la revista Time promocionando Thrive AI, una startup respaldada por Thrive y el Fondo de Startups de OpenAI. En el artículo se sugiere que la inteligencia artificial podría tener un gran impacto positivo en la salud pública persuadiendo a las personas para que adopten comportamientos más saludables.

Altman y Huffington escriben que Thrive AI está trabajando hacia "un entrenador de inteligencia artificial personal totalmente integrado que ofrece sugerencias en tiempo real y recomendaciones únicas para ti, que te permiten tomar medidas sobre tus comportamientos diarios para mejorar tu salud". Su visión pone un giro positivo en lo que bien podría resultar ser una de las doble-navajas más afiladas de la inteligencia artificial. Los modelos de IA ya son expertos en persuadir a las personas, y no sabemos cuán poderosos podrían llegar a ser a medida que avanzan y acceden a más datos personales.

Aleksander Madry, un profesor en sabático del Instituto de Tecnología de Massachusetts, lidera un equipo en OpenAI llamado Preparedness que está trabajando en ese mismo tema. "Una de las líneas de trabajo en Preparedness es la persuasión", dijo Madry a WIRED en una entrevista de mayo. "Básicamente, pensando en qué medida se pueden utilizar estos modelos como una forma de persuadir a las personas".

Madry afirma que se unió a OpenAI por el potencial notable de los modelos de lenguaje y porque los riesgos que plantean apenas han sido estudiados. "Literalmente casi no hay ciencia", dice. "Esa fue la motivación para el esfuerzo de Preparedness".

La persuasión es un elemento clave en programas como ChatGPT y uno de los ingredientes que hacen que estos chatbots sean tan convincentes. Los modelos de lenguaje están entrenados en escritura humana y diálogo que contiene innumerables trucos y técnicas retóricas y persuasivas. Los modelos también suelen ser ajustados para inclinarse hacia enunciados que los usuarios encuentran más convincentes.

Investigaciones publicadas en abril por Anthropic, una competidora fundada por exiliados de OpenAI, sugieren que los modelos de lenguaje han mejorado en persuadir a las personas a medida que han crecido en tamaño y sofisticación. Esta investigación implicó darles a voluntarios una afirmación y luego ver cómo un argumento generado por IA cambia su opinión al respecto.

El trabajo de OpenAI se extiende al análisis de la IA en conversación con los usuarios, algo que podría desbloquear una mayor persuasión. Madry dice que el trabajo se está realizando con voluntarios que han dado su consentimiento, y se niega a revelar los hallazgos hasta la fecha. Pero afirma que el poder persuasivo de los modelos de lenguaje es profundo. "Como humanos, tenemos esta 'debilidad' de que si algo se comunica con nosotros en lenguaje natural [pensamos que] es humano", dice, aludiendo a un antropomorfismo que puede hacer que los chatbots parezcan más realistas y convincentes.

El artículo de Time argumenta que los posibles beneficios para la salud de la IA persuasiva requerirán sólidas salvaguardas legales porque los modelos podrían tener acceso a mucha información personal. "Los formuladores de políticas necesitan crear un entorno regulatorio que fomente la innovación en IA mientras protege la privacidad", escriben Altman y Huffington.

Esto no es todo lo que los formuladores de políticas deberán considerar. También podría ser crucial sopesar cómo podrían ser mal utilizados los algoritmos cada vez más persuasivos. Los algoritmos de IA podrían potenciar la resonancia de la desinformación o generar estafas de phishing particularmente convincentes. También podrían usarse para publicitar productos.

Madry señala que una pregunta clave, aún por estudiar por OpenAI u otros, es cuán más convincentes o coercitivos podrían resultar ser los programas de IA que interactúan con usuarios durante largos períodos de tiempo. Ya existen varias empresas que ofrecen chatbots que actúan como parejas románticas y otros personajes. Las novias de IA son cada vez más populares, algunas incluso están diseñadas para gritarte, pero en gran medida se desconoce cuán adictivos y persuasivos son estos bots.

La emoción y la publicidad generadas por ChatGPT tras su lanzamiento en noviembre de 2022 llevaron a OpenAI, investigadores externos y muchos formuladores de políticas a enfocarse en la pregunta más hipotética de si la IA podría algún día volverse en contra de sus creadores.

Madry dice que esto corre el riesgo de ignorar los peligros más sutiles que plantean los algoritmos elocuentes. "Me preocupa que se centren en las preguntas equivocadas", dice Madry sobre el trabajo de los formuladores de políticas hasta ahora. "Que de alguna manera, todos digan, 'Oh sí, lo estamos manejando porque estamos hablando de ello', cuando en realidad no estamos hablando de lo correcto."