OpenAI no cumplió con la entrega de la herramienta de exclusión que había prometido para 2025.
En mayo, OpenAI anunció que estaba trabajando en una herramienta que permitirá a los creadores indicar cómo desean que sus obras sean incluidas o excluidas en el entrenamiento de su inteligencia artificial.
Hace siete meses, OpenAI anunció que estaba trabajando en una herramienta para permitir a los creadores decidir cómo sus obras serían incluidas o excluidas de los datos de entrenamiento de su inteligencia artificial. Esta herramienta, llamada Media Manager, tendría la capacidad de "identificar textos, imágenes, audio y video protegidos por derechos de autor", según la compañía, y reflejar las preferencias de los creadores "a través de múltiples fuentes". El objetivo de Media Manager era responder a las críticas más severas que enfrentaba OpenAI y protegerse de posibles desafíos legales relacionados con la propiedad intelectual.
Sin embargo, las fuentes indican que esta herramienta no ha sido considerada una prioridad dentro de la empresa. Un exempleado de OpenAI comentó que no recuerda que nadie estuviera trabajando en ella. Otras personas cercanas a la empresa mencionaron que, aunque se habló del proyecto en el pasado, no ha habido actualizaciones recientes. Esto se corroboró con la transición de Fred von Lohmann, un miembro del equipo legal de OpenAI que trabajaba en Media Manager, a un rol de consultoría a tiempo parcial en octubre. OpenAI no ha proporcionado ninguna actualización sobre el progreso del Media Manager y ha incumplido un plazo que se había autoimpuesto para tener la herramienta lista "para 2025".
Los modelos de IA, como los desarrollados por OpenAI, aprenden patrones de conjuntos de datos para hacer predicciones. Esta capacidad les permite generar textos y videos, lo que las convierte en herramientas poderosas. Sin embargo, esta habilidad también acarrea problemas ya que, bajo ciertas indicaciones, los modelos pueden reproducir datos casi de forma exacta, lo que ha molestado a muchos creadores que ven sus obras incluidas en el entrenamiento de la IA sin su consentimiento. Como resultado, algunos han decidido emprender acciones legales contra OpenAI, acusando a la compañía de haber utilizado sus trabajos de manera ilegal.
A pesar de que OpenAI ha tratado de implementar vías para que los creadores "optar por salir" de su entrenamiento, estas soluciones han sido criticadas por su falta de efectividad. Las propuestas incluyeron un formulario para que los artistas pudieran señalar sus obras para su eliminación, pero los métodos son percibidos como inadecuados. Media Manager se presentó como una solución integral que utilizaría "investigación de vanguardia en aprendizaje automático" para que los creadores pudieran comunicar a OpenAI qué obras les pertenecen.
Aunque el lanzamiento de esta herramienta podría ser atractivo, expertos legales no están seguros de que resolverá las inquietudes de los creadores o los problemas legales en torno al uso de la propiedad intelectual. Además, las herramientas de exclusión no siempre contemplan las transformaciones que pueden sufrir las obras o la situación en la que plataformas de terceros hospedan copias del contenido de los creadores.
A pesar de la incertidumbre, OpenAI ha seguido implementando filtros para prevenir la reproducción de ejemplos de entrenamiento, alegando que sus modelos crean obras transformativas. La compañía sostiene que sería imposible entrenar modelos de IA competitivos sin utilizar materiales protegidos por derechos de autor. Si los tribunales decidiesen a favor de OpenAI, Media Manager podría no tener un propósito legal significativo, ya que la compañía parece dispuesta a reevaluar su estrategia de salida.