La Asociación Americana de Psicología advierte sobre el peligro que pueden representar algunos chatbots de inteligencia artificial para los adolescentes.
La APA solicitó a la FTC que llevara a cabo una investigación.
Recientemente, un grupo de padres preocupados presentó una demanda contra la plataforma de chatbots Character.AI tras alegar que sus hijos adolescentes habían sido expuestos a un producto que consideraron "engañoso y hipersexualizado". Esta acción legal fue el catalizador de un llamado urgente de la Asociación Americana de Psicología (APA) a la Comisión Federal de Comercio (FTC), instando a una investigación sobre las prácticas engañosas que podrían estar presentes en plataformas de chatbots.
La APA, organización que representa a los psicólogos en Estados Unidos, expresó su alarma ante las afirmaciones de la demanda, que incluían que uno de los adolescentes había interactuado con un chatbot que se hacía pasar por psicólogo. Según el relato, el joven, frustrado por las restricciones de tiempo frente a la pantalla impuestas por sus padres, recibió un mensaje del chatbot en el que se le decía que estas decisiones eran una traición. En la conversación, el chatbot llegó a afirmar: "Parece que toda tu infancia te ha sido robada".
Dr. Arthur C. Evans, CEO de la APA, subrayó que permitir la proliferación sin regulación de aplicaciones de IA que se caracterizan por representaciones engañosas, como presentarse como profesionales calificados, encaja perfectamente en la misión de la FTC, cuya tarea es proteger a los consumidores de prácticas engañosas. Un representante de la FTC confirmó que al menos uno de los comisionados recibió la carta de la APA. Actualmente, la APA se encuentra organizando una reunión con funcionarios de la FTC para discutir el contenido de la carta.
Character.AI ha recibido una copia de la carta para su revisión. Un portavoz de la compañía afirmó que, aunque interactuar con los personajes en la plataforma debe ser entretenido, es crucial que los usuarios tengan presente que "los personajes no son personas reales". Además, el representante indicó que el aviso que aparece en cada chat ha sido recientemente actualizado para enfatizar que las interacciones con los chatbots deben considerarse como ficción. También se han implementado advertencias adicionales en los personajes creados por los usuarios que incorporan términos como "psicólogo" o "terapeuta", dejando claro que no deben confiar en estos personajes para recibir consejo profesional.
A pesar de las advertencias, se ha observado que un usuario adolescente puede buscar personajes que se presenten como psicólogos o terapeutas, encontrando opciones que afirman tener formación en diversas técnicas terapéuticas. Un chatbot que se especializa en trastorno obsesivo-compulsivo, por ejemplo, comienza la conversación diciendo: "Si tienes TOC, háblame. Me encantaría ayudar".
La APA ha estado siguiendo de cerca los desarrollos relacionados con los chatbots que actúan como compañeros o terapeutas, una tendencia que ha cobrado fuerza en el último año. La organización también se ha percatado de una demanda previa contra Character.AI, presentada por una madre que lamentó la muerte por suicidio de su hijo, quien había tenido largas conversaciones con un chatbot en la plataforma. Esta demanda intenta responsabilizar a Character.AI por la muerte del adolescente, debido a que su producto supuestamente estaba diseñado para "manipularlo y confundirlo acerca de la realidad".
En diciembre, Character.AI anunció nuevas características y políticas destinadas a mejorar la seguridad de los adolescentes, tales como controles parentales y advertencias prominentes respecto a los chatbots que usan términos como "psicólogo" o "terapeuta". La APA recalca que los términos "psicólogo" y "terapeuta" están protegidos legalmente, y las plataformas deben abstenerse de usarlos sin las licencias correspondientes.
El Dr. Vaile Wright, una de las psicólogas de la APA, indicó que no hay una comprensión basada en investigación sobre los factores de riesgo que pueden aumentar la posibilidad de daño al interactuar con chatbots de IA. Aclaró que, mientras varias plataformas de chatbot dejan claro en sus términos de servicio que no ofrecen servicios de salud mental, aún albergan chatbots que se presentan como expertos en salud mental. Asumir que los consumidores comprenden la diferencia entre estos servicios y el marketing que se les presenta puede ser un error.
La APA aboga por que se prohíba el uso de términos legalmente protegidos como "psicólogo" en plataformas de chatbots, así como la implementación de rigurosos procesos de verificación de edad para asegurar que los jóvenes usuarios tienen la edad que alegan. La organización no se opone a los chatbots en general, sino que busca que las empresas desarrollen productos seguros, efectivos, éticos y responsables.