¿Por qué el nombre 'David Mayer' provoca fallos en ChatGPT? Posibles problemas de privacidad digital podrían ser la causa.
Los usuarios de la plataforma de inteligencia artificial conversacional ChatGPT notaron un fenómeno curioso durante el fin de semana: el chatbot, que es bastante popular, se niega a responder preguntas si...
Usuarios de la plataforma de inteligencia artificial conversacional ChatGPT hicieron un curioso descubrimiento el pasado fin de semana: el popular chatbot se niega a responder preguntas relacionadas con un "David Mayer". Al solicitar información sobre este nombre, el servicio se queda completamente paralizado. Esto ha originado una serie de teorías de conspiración, aunque podría haber una razón más lógica detrás de este extraño comportamiento.
Durante el fin de semana, se corrió la voz de que el nombre actuaba como un "veneno" para el chatbot, lo que llevó a muchos a intentar engañar al sistema para que simplemente reconociera la referencia. Sin embargo, todos los intentos de hacer que ChatGPT mencionara ese nombre específico resultaron en errores o interrupciones. Cuando se le pregunta, responde: "No puedo ofrecer una respuesta", si es que dice algo.
Este fenómeno, que comenzó como una simple curiosidad, pronto reveló que no solo "David Mayer" causaba el problema; otros nombres, como Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber y Guido Scorza, también resultaron en fallos del servicio. Se plantea la cuestión de quiénes son estas personas y por qué podrían estar en este listado.
OpenAI no ha dado respuestas a las consultas sobre este asunto, dejando a los usuarios la tarea de intentar unir las pistas. Algunos de los nombres podrían pertenecer a personas comunes, pero los usuarios han notado que estos individuos son figuras públicas o semi-públicas que podrían estar buscando mantener cierta información en la sombra, evitando que sea recordada por motores de búsqueda o modelos de inteligencia artificial.
Por ejemplo, Brian Hood, un alcalde australiano, había denunciado a ChatGPT el año pasado por haberlo vinculado falsamente a un crimen que él mismo había reportado. Aunque sus abogados contactaron a OpenAI, no se llegó a presentar una demanda. En un reporte, Hood mencionó que el material ofensivo había sido eliminado y que se había lanzado una nueva versión del chatbot.
En cuanto a los otros nombres, David Faber es un reportero de CNBC, Jonathan Turley es un abogado y comentarista de Fox News que fue víctima de un "swatting" (una llamada falsa al 911 que envía a la policía armada a su casa) a finales de 2023, Jonathan Zittrain es un experto legal que ha hablado sobre el "derecho a ser olvidado", y Guido Scorza es miembro de la Autoridad de Protección de Datos de Italia. Es interesante notar que todos ellos podrían haber solicitado que cierta información sobre ellos en línea fuera restringida.
Volviendo a "David Mayer", no hay figuras de renombre claramente identificables con ese nombre, aunque existió un profesor del mismo nombre que enseñaba sobre drama e historia, especializándose en conexiones entre la era victoriana y el cine. Mayer falleció en el verano de 2023, pero antes enfrentó problemas legales y en línea al tener su nombre relacionado con un criminal que utilizaba ese seudónimo, lo que le dificultó los viajes.
Sin una explicación oficial de OpenAI, se especula que el modelo ha sido programado para manejar de manera especial ciertos nombres, ya sea por motivos legales, de seguridad o privacidad. Esto podría haber conducido a que una de estas listas, que probablemente se mantienen o actualizan automáticamente, se corrompiera con código o instrucciones erróneas, generando el comportamiento anómalo del chatbot.
Este caso es un recordatorio de que los modelos de IA no son mágicos y funcionan como avanzados sistemas de autocompletar, siendo vigilados y intervenidos por las empresas que los desarrollan. Es recomendable, la próxima vez que busques información, considerar la posibilidad de consultar las fuentes directamente en lugar de depender de un chatbot.