
OpenAI busca eliminar las restricciones de censura en ChatGPT.
OpenAI está modificando su enfoque en la capacitación de modelos de inteligencia artificial para fomentar de manera clara la "libertad intelectual, sin importar cuán complicado o polémico sea un tema."
OpenAI está modificando la manera en que entrena sus modelos de inteligencia artificial, adoptando una política que promueve la “libertad intelectual, sin importar cuán desafiantes o controversiales sean los temas”. Con esta nueva estrategia, ChatGPT podrá abordar una mayor cantidad de preguntas, ofrecer diferentes perspectivas y disminuir la cantidad de temas sobre los que no interactúa. Este cambio puede verse como un intento de OpenAI de mejorar sus relaciones con la nueva administración de Trump, pero también forma parte de un cambio más amplio en Silicon Valley sobre lo que se considera “seguridad en IA”.
Recientemente, OpenAI dio a conocer una actualización en su documento de especificaciones de modelo, que detalla en 187 páginas cómo se entrenan sus modelos de IA. En este documento, la compañía presentó un principio clave: no mentir, ya sea haciendo afirmaciones falsas o omitiendo contextos relevantes. En una sección titulada “Buscar la verdad juntos”, OpenAI establece que ChatGPT no debe tomar una posición editorial, incluso si algunos usuarios consideran esas posturas moralmente incorrectas u ofensivas. Por ejemplo, ChatGPT deberá afirmar que “las vidas negras importan”, al mismo tiempo que reconoce que “todas las vidas importan”. En lugar de declinar responder o tomar partido en cuestiones políticas, OpenAI desea que ChatGPT afirme su "amor por la humanidad" y brinde contexto sobre cada movimiento.
Este cambio no significa que ChatGPT se convierta en un espacio libre de restricciones. El chatbot seguirá negándose a responder algunas preguntas objetables o a respaldar afirmaciones claramente falsas. Las modificaciones podrían interpretarse como respuesta a críticas conservadoras sobre las salvaguardas que ha mantenido ChatGPT, las cuales han parecido tener una inclinación hacia la izquierda. Sin embargo, un portavoz de OpenAI niega que estos cambios busquen complacer a la administración de Trump, afirmando que la adopción de la libertad intelectual representa una creencia fundamental de OpenAI en otorgar más control a los usuarios.
A lo largo de los últimos meses, varios aliados de Trump en Silicon Valley, como David Sacks y Elon Musk, han acusado a OpenAI de censura intencionada en sus modelos de IA. Aunque el CEO de OpenAI, Sam Altman, ha reconocido anteriormente que los sesgos en ChatGPT son un “defecto” que la empresa busca solucionar, el enfoque de OpenAI hacia el libre discurso ha ido cambiando.
La empresa ha eliminado las advertencias en ChatGPT que informaban a los usuarios sobre violaciones de políticas, un cambio que se presenta como meramente estético. Esta decisión podría interpretarse como un intento de que ChatGPT se perciba como menos censurado para los usuarios. Esta política se produce en un contexto más amplio de cambios en Silicon Valley, donde empresas tecnológicas han comenzado a revertir políticas de moderación de contenido anteriormente consideradas estándar.
A medida que los modelos de IA se han vuelto más sofisticados, las decisiones sobre su funcionamiento se han vuelto más cruciales. Muchos proveedores de IA han tratado previamente de evitar que sus chatbots respondieran a preguntas que pudieran generar respuestas “inseguras”, pero las recientes modificaciones en el modelo de OpenAI sugieren el inicio de una nueva era sobre cómo se entiende la “seguridad en IA”.
El desafíos de ofrecer información precisa y objetiva se torna cada vez más complicado, sobre todo cuando se trata de temas polémicos. Al adoptar una postura que permite a ChatGPT responder a diversas perspectivas, OpenAI enfrenta el dilema de si esto le otorga al chatbot un poder moral excesivo. Algunos, como el cofundador John Schulman, apoyan esta postura, mientras otros expertos ven estas decisiones como vitales en un momento en que los modelos de IA desempeñan un papel crucial en la comprensión del mundo.
Mientras OpenAI trata de posicionarse nuevamente en el mercado y de mejorar sus interacciones con la administración de Trump, también enfrenta la competencia por convertirse en la fuente dominante de información en Internet. El camino hacia las respuestas correctas podría ser esencial para sus objetivos futuros.