Cover Image for La Casa Blanca consigue compromisos voluntarios de empresas de IA para combatir la pornografía deepfake.

La Casa Blanca consigue compromisos voluntarios de empresas de IA para combatir la pornografía deepfake.

La Casa Blanca emitió un comunicado en el que se detallan los compromisos que diversas empresas de inteligencia artificial han asumido para reducir la creación y distribución de contenido basado en imágenes...

La Casa Blanca ha emitido un comunicado en el que detalla los compromisos de varias empresas de inteligencia artificial para frenar la creación y distribución de material sexual abusivo basado en imágenes. Las compañías involucradas han esbozado las medidas que implementarán para evitar que sus plataformas sean utilizadas para generar imágenes íntimas no consensuadas (NCII) de adultos y material de abuso sexual infantil (CSAM).

En particular, las empresas Adobe, Anthropic, Cohere, Microsoft y OpenAI han declarado que se comprometen a "obtener de manera responsable sus conjuntos de datos y protegerlos del abuso sexual basado en imágenes." Con la excepción de Common Crawl, estas empresas también se han comprometido a "incorporar ciclos de retroalimentación y estrategias de pruebas iterativas en sus procesos de desarrollo, para protegerse contra la generación de abusos sexuales basados en imágenes por los modelos de IA" y a "eliminar imágenes desnudas de los conjuntos de datos de entrenamiento de IA" cuando sea apropiado.

Es importante señalar que este compromiso es voluntario, lo que significa que el anuncio de hoy no establece nuevas medidas concretas ni consecuencias por el incumplimiento de estas promesas. Sin embargo, se puede valorar positivamente el esfuerzo de buena fe por abordar este problema grave. Entre las ausencias notables en el comunicado de la Casa Blanca se encuentran Apple, Amazon, Google y Meta.

Aparte de esta iniciativa federal, muchas grandes empresas tecnológicas y de IA han estado progresando en la facilitación para que las víctimas de NCII frenen la difusión de imágenes y videos de deepfake. StopNCII ha colaborado con diversas compañías para adoptar un enfoque integral para eliminar este tipo de contenido, mientras que otras empresas están implementando herramientas propias para reportar el abuso sexual basado en imágenes generado por IA en sus plataformas.

  • AI
  • abuso sexual
  • derechos digitales