
OpenAI elimina advertencias de ChatGPT, aunque su política de contenido se mantiene igual.
Ya no aparecerán los mensajes de advertencia en rojo en ChatGPT, pero eso no implica que todo sea permitido.
OpenAI ha decidido eliminar las cajas de advertencia en color naranja que aparecían en ChatGPT, las cuales indicaban posibles violaciones a sus políticas de contenido por parte de los usuarios. Laurentia Romaniuk, gerente de comportamiento del modelo, anunció a través de una publicación en X que se ha eliminado esta función para mejorar la experiencia de los usuarios. Además, Romaniuk solicitó a los usuarios que compartieran otros casos donde hayan enfrentado denegaciones que consideren injustificadas en el uso de la plataforma.
Joanne Jang, quien también forma parte del equipo de comportamiento del modelo, amplió esta petición, cuestionando si alguna vez ChatGPT se negó a proporcionar información sin una razón clara o por motivos con los que los usuarios no estuvieran de acuerdo. Este asunto resaltó un problema reciente, donde el sistema solía evitar conversaciones sobre temas polémicos, pero también marcaba como inapropiados diálogos que parecían inofensivos, como el caso de un usuario de Reddit a quien se le eliminó una conversación por incluir una palabrota.
La semana pasada, OpenAI también realizó una revisión significativa de su Especificación del Modelo, que detalla cómo el modelo responde de manera segura a los usuarios. La nueva especificación es mucho más extensa que la anterior y aborda asuntos controversiales actuales, tales como la negativa a compartir contenido protegido por derechos de autor y la discusión sobre políticos tanto de forma crítica como en apoyo.
ChatGPT ha enfrentado acusaciones de censura; por ejemplo, David Sacks, conocido como "el Czar de la IA" de Trump, comentó en un episodio de 2023 del podcast All-In que ChatGPT "fue programado para ser woke". No obstante, tanto la versión anterior como la actual de la Especificación del Modelo sostienen que "OpenAI cree en la libertad intelectual, que incluye el derecho a tener, escuchar y discutir ideas".
A pesar de la eliminación de las advertencias, esto ha generado dudas sobre si se anticipa un cambio en las respuestas de ChatGPT. Un vocero de OpenAI aclaró que la eliminación de las advertencias no refleja un cambio en la Especificación del Modelo ni afecta las respuestas del mismo. La decisión se centró en actualizar la forma de comunicar sus políticas de contenido a los usuarios. Modelos más recientes, como o3, son más capaces de analizar las solicitudes, lo que podría llevar a una mejor respuesta en temas controvertidos en lugar de simplemente rechazar consultas. Sin embargo, se seguirá mostrando el aviso en ciertos casos que infrinjan las políticas de contenido.