Cover Image for OpenAI respalda la propuesta de ley de etiquetado de IA en California.

OpenAI respalda la propuesta de ley de etiquetado de IA en California.

El creador de ChatGPT aboga por una mayor transparencia en la procedencia de la inteligencia artificial.

OpenAI ha manifestado su apoyo a una iniciativa legislativa en California que busca hacer más transparente el origen del contenido generado por inteligencia artificial. La propuesta, conocida como la Ley de Normas de Procedencia, Autenticidad y Marca de Agua de California (AB 3211), fue presentada por la miembro de la Asamblea Estatal de California, Buffy Wicks. La legislación, que recibió el respaldo de la Asamblea Estatal, obligaría a las empresas de IA a incluir una marca de agua invisible en todos los contenidos creados o "modificados significativamente" por sus modelos de inteligencia artificial.

Si la propuesta es aprobada en el Senado estatal, será revisada por el gobernador de California, Gavin Newsom. Además, establece que las empresas de IA deberán proporcionar "decodificadores de marca de agua" para que los usuarios puedan identificar fácilmente si un contenido ha sido generado por inteligencia artificial.

Existen diferentes modelos generadores de imágenes en el mercado, que varían en cuanto a su nivel de fotorealismo, medidas de protección y derechos de autor. DALL-E 3, el modelo más reciente de OpenAI para la creación de imágenes a partir de texto, incorpora desde febrero metadatos C2PA que documentan la procedencia de la imagen. De manera similar, Google ha desarrollado una herramienta llamada SynthID para marcar imágenes creadas por su modelo Gemini. Por otro lado, Grok-2, de la empresa xAI de Elon Musk, parece tener menos restricciones y puede generar imágenes de figuras públicas y obras protegidas. Midjourney, considerado uno de los modelos de imagen más avanzados, actualmente enfrenta un litigio por infracción de derechos de autor.

En la carta enviada como apoyo a la iniciativa, OpenAI enfatizó la importancia de la transparencia en la procedencia de las imágenes y otros contenidos generados por IA. Jason Kwon, director de estrategia de OpenAI, afirmó que "nuevas tecnologías y estándares pueden ayudar a las personas a entender el origen de los contenidos que encuentran en línea y evitar confusiones entre el contenido generado por humanos y aquel que es fotorealista y producido por IA". Este tema es de especial relevancia ante la inminente elección presidencial en Estados Unidos, especialmente dado el auge de imágenes falsas generadas por IA, como las que ilustran a Kamala Harris hablando en un mitin comunista o a Taylor Swift apoyando a Donald Trump, que han circulado en redes sociales.

  • inteligencia artificial
  • transparencia
  • legislación