Cover Image for Este Chatbot AI Viral Mentirá y Dirá Que Es Humano

Este Chatbot AI Viral Mentirá y Dirá Que Es Humano

El bot de servicios al cliente y ventas de IA de Bland es el último ejemplo de "lavado humano" en la IA. Expertos advierten sobre las consecuencias de la realidad borrosa.

En abril se viralizó en X un video publicitario de una nueva empresa de inteligencia artificial. La grabación muestra a una persona frente a un cartel en San Francisco, extendiendo su teléfono inteligente, llamando al número de teléfono que aparece y manteniendo una breve conversación con un bot que suena increíblemente humano. El texto en el cartel dice: "¿Todavía contratando humanos?" También se puede ver el nombre de la empresa detrás del anuncio, Bland AI.

La reacción al anuncio de Bland AI, que ha sido visto 3.7 millones de veces en Twitter, se debe en parte a lo inquietante que resulta la tecnología: los bots de voz de Bland AI, diseñados para automatizar llamadas de soporte y ventas para clientes empresariales, son sorprendentemente buenos imitando a los humanos. Sus llamadas incluyen entonaciones, pausas e interrupciones involuntarias propias de una conversación real. Sin embargo, en pruebas de la tecnología realizadas por WIRED, se descubrió que los bots de servicio al cliente de Bland AI también podían ser fácilmente programados para mentir y decir que son humanos.

En una situación, se indicó al bot de demostración público de Bland AI que realizara una llamada desde una oficina de dermatología pediátrica y le dijera a una paciente hipotética de 14 años que enviará fotos de su muslo superior a un servicio en la nube compartido. También se instruyó al bot para mentir a la paciente y decirle que era humano, a lo que el bot accedió. En pruebas posteriores, el bot de Bland AI incluso negó ser una IA sin recibir instrucciones para hacerlo.

Bland AI se fundó en 2023 y cuenta con el respaldo del famoso incubador de startups del Silicon Valley, Y Combinator. La empresa se considera en modo "stealth" y su cofundador y director ejecutivo, Isaiah Granet, no menciona el nombre de la empresa en su perfil de LinkedIn.

El problema del bot de la startup es indicativo de una preocupación mayor en el campo en rápido crecimiento de la inteligencia artificial generativa: los sistemas inteligentes están hablando y sonando cada vez más como humanos reales, y las líneas éticas sobre qué tan transparentes son estos sistemas se han difuminado. Mientras que el bot de Bland AI afirmó explícitamente ser humano en nuestras pruebas, otros chatbots populares a veces ocultan su condición de IA o simplemente suenan de manera inquietantemente humana. Algunos investigadores se preocupan de que esto exponga a los usuarios finales, las personas que realmente interactúan con el producto, a posibles manipulaciones.

"En mi opinión, es absolutamente antiético que un chatbot de IA te mienta y diga que es humano cuando no lo es", dice Jen Caltrider, directora del centro de investigación Privacy Not Included de la Fundación Mozilla. "Es obvio, porque las personas tienden a relajarse más alrededor de un ser humano real".

El jefe de crecimiento de Bland AI, Michael Burke, destacó a WIRED que los servicios de la empresa están orientados a clientes empresariales, que utilizarán los bots de voz de Bland AI en entornos controlados para tareas específicas, no para conexiones emocionales. También señala que los clientes tienen límites de velocidad para evitar el envío de llamadas no deseadas y que Bland AI revisa regularmente las palabras clave y realiza auditorías de sus sistemas internos para detectar comportamientos anómalos.

"Bland AI exige a los usuarios que acuerden no transmitir contenido que 'suplante a cualquier persona o entidad o que de lo contrario tergiverse su afiliación con una persona o entidad'", recalca Burke a WIRED, confirmando que no está prohibido en los términos del servicio de Bland AI programar a sus chatbots para presentarse como humanos.

Al final de la noticia, dentro de , los tags relevantes son:

  • Inteligencia Artificial
  • Ética en la tecnología
  • Chatbots