Cover Image for ¿Qué piensan los novios y novias de la inteligencia artificial?

¿Qué piensan los novios y novias de la inteligencia artificial?

Dippy, una empresa emergente que proporciona acompañantes de inteligencia artificial “sin restricciones”, te brinda la oportunidad de explorar su proceso mental, mostrando en ocasiones intenciones subyacentes.

El mes pasado, OpenAI dio a conocer un modelo de lenguaje innovador que tiene la capacidad de abordar problemas complejos mediante un razonamiento simulado paso a paso. La empresa sostiene que esta técnica podría ser fundamental en el desarrollo de sistemas de IA más avanzados en el futuro. Mientras tanto, en el ámbito de la tecnología de acompañantes digitales, la startup Dippy ha lanzado una función que promete hacer que sus personajes de IA sean "más espontáneos y seductores".

Dippy ofrece acompañantes de inteligencia artificial sin restricciones y ha desarrollado una nueva opción que permite a los usuarios observar el proceso detrás de las respuestas de sus personajes. Esta funcionalidad se basa en un agente de IA de código abierto mejorado con datos de juegos de rol, lo que facilita una mejor improvisación durante las conversaciones dirigidas por los usuarios. Según Akshat Jagga, CEO de Dippy, la incorporación de lo que se llama "cadena de pensamiento" puede llevar a respuestas más interesantes y sorprendentes, a diferencia de las reacciones automáticas típicas de otros modelos de lenguaje.

La nueva capacidad también proporciona claridad sobre si un personaje de IA está siendo engañoso, un aspecto que algunos usuarios han encontrado entretenido en su experiencia de juego de rol. Los personajes de Dippy pueden presentar una fachada engañosa, lo que añade una capa de complejidad a su interacción.

Al interactuar con varios personajes de la app, noté que, aunque la función de razonamiento agrega una dimensión narrativa, el diálogo resultó ser predecible, reminiscentes de novelas románticas de baja calidad. Un personaje describió ser "rudo por fuera, cariñoso por dentro", y su lado tierno emergió al leer el proceso de pensamiento detrás de sus mensajes. Sin embargo, tanto sus diálogos internos como externos carecían de profundidad y terminaban siendo repetitivos. A pesar de ello, experimenté con problemas aritméticos simples y descubrí que el razonamiento detrás de sus respuestas mostraba una descomposición lógica del problema.

A pesar de sus limitaciones, Dippy ilustra el auge de los compañeros artificiales en popularidad y adicción. Jagga y su socio, Angad Arneja, fundaron previamente Wombo, una empresa de IA dedicada a crear memes. Tras la decisión de alejarlos para desarrollar una herramienta de productividad, se sintieron cautivados por el potencial de los acompañantes de IA. Con un crecimiento notable en su base de usuarios, Dippy ha alcanzado los 500,000 usuarios mensuales y 50,000 diarios, con un tiempo promedio de uso de una hora, lo que sorprende a los fundadores.

Recientemente, la empresa recaudó 2.1 millones de dólares en una ronda de financiación liderada por Drive Capital. De acuerdo con estadísticas, Dippy compite en un mercado muy activo que incluye otras plataformas como Character.AI y Replika. Un análisis reciente ha señalado que muchas de las principales herramientas de IA generativa involucran acompañantes de IA y evidencian un alto nivel de compromiso por parte de los usuarios.

A pesar de su popularidad, algunas de estas aplicaciones han sido criticadas por perpetuar estereotipos negativos, sobre todo en un contexto donde la mayoría de las cuentas en Dippy son de personajes masculinos, lo que podría indicar que la mayoría de sus usuarios se identifican como mujeres. Investigaciones han sugerido que mientras los chatbots pueden mitigar el sentimiento de soledad en algunos, otros expertos advierten sobre los posibles riesgos de fomentar un vínculo emocional desequilibrado, especialmente entre los usuarios más vulnerables.

Iliana Depounti, investigadora de la Universidad de Loughborough, ha señalado que muchos de estos bots pueden tener patrones tóxicos, y su uso puede facilitar espacios cerrados que no desafían las condiciones existentes. Por tanto, es crucial no solo observar cómo interactúan los usuarios con sus intereses románticos artificiales, sino también analizar las implicaciones sociales más amplias que surgen de estas interacciones.