Cover Image for Este sistema puede distinguir entre imágenes reales y falsificaciones generadas por IA; ¿por qué no lo utilizan las plataformas?

Este sistema puede distinguir entre imágenes reales y falsificaciones generadas por IA; ¿por qué no lo utilizan las plataformas?

Está llevando años lograr que las plataformas adopten el estándar del C2PA.

A medida que se aproxima la elección presidencial en los Estados Unidos, Internet se ha llenado de imágenes de Donald Trump y Kamala Harris. Estas incluyen fotos cronometradas de un intento de asesinato, imágenes triviales de multitudes en mítines y fotos de los candidatos en situaciones muy inusuales, como quemando banderas y sosteniendo armas. Muchas de estas imágenes son fabricadas, lo que hace que la confianza en lo que vemos en línea se vuelva problemática. Las herramientas de imagen generativa de inteligencia artificial son tan avanzadas y accesibles que es difícil distinguir la realidad de la ficción.

Los líderes de medios digitales han iniciado esfuerzos para resolver este desafío mediante la implementación de más datos, específicamente metadatos que acompañen a las imágenes, indicando qué es real y qué no. Uno de los sistemas más reconocidos es la autenticación C2PA, respaldada por empresas como Microsoft, Adobe, OpenAI, Intel y Google, que proporciona información crucial sobre el origen de las imágenes, permitiendo a los espectadores determinar si han sido manipuladas. Según un miembro del comité de dirección de C2PA, este tipo de tecnologías aporta transparencia al proceso, lo que es esencial, especialmente durante las noticias de último momento y los ciclos electorales.

Sin embargo, persiste la pregunta de por qué esta información no se muestra claramente en las publicaciones en línea. La principal dificultad radica en la interoperabilidad y la implementación desigual de estos estándares, lo que ha llevado años en materializarse. La C2PA, junto con la Iniciativa de Autenticidad de Contenido de Adobe, está trabajando para establecer un estándar de autenticación utilizando firmas digitales criptográficas.

El proceso comienza con la adopción de un estándar en la industria, seguido de que los creadores de contenido incorporen credenciales en sus imágenes. A pesar de que algunas cámaras ya soportan este tipo de autenticación, como marcas de renombre, otras aún no han implementado estas capacidades, especialmente en dispositivos móviles, que son los más utilizados.

Las aplicaciones de edición de imágenes también pueden contribuir a incluir esta información durante el proceso de edición, pero diversas aplicaciones aún carecen de una solución de metadatos interoperativa. Por ejemplo, Adobe Photoshop y Lightroom son capaces de integrar datos de autenticidad, pero muchas otras aplicaciones no lo han hecho.

Incluso si una imagen cuenta con datos de autenticidad, este no siempre es accesible para los usuarios. Plataformas populares, como X y Reddit, no muestran estos datos, limitando la capacidad del público para verificar la autenticidad de las imágenes que circulan.

Por otro lado, aunque las plataformas como Facebook e Instagram han implementado ciertas verificaciones, solo lo hacen en relación con imágenes manipuladas por inteligencia artificial, sin validar las imágenes que son genuinas. La falta de claridad en las etiquetas y un formato adecuado para presentar esta información también obstaculizan que los usuarios puedan confiar en el contenido que encuentran.

A pesar de la voluntad de algunos actores de la industria, como Elon Musk, de respaldar la iniciativa C2PA, la difusión de la desinformación sigue siendo un desafío. La efectividad de los sistemas de autenticación, como el propuesto, depende de su adopción por múltiples plataformas y productos. Si bien es probable que un sistema de etiquetado criptográfico sea la mejor opción disponible para identificar contenido auténtico o manipulado, siempre existirán malos actores dispuestos a engañar al público.

  • Desinformación
  • Autenticidad Digital
  • Inteligencia Artificial