Cover Image for Senadores estadounidenses instan a los reguladores a investigar posibles violaciones antimonopolio relacionadas con la inteligencia artificial.

Senadores estadounidenses instan a los reguladores a investigar posibles violaciones antimonopolio relacionadas con la inteligencia artificial.

El gobierno de Estados Unidos está comenzando a reconocer los posibles efectos adversos de la inteligencia artificial generativa en ámbitos como el periodismo y la creación de contenido.

El gobierno de Estados Unidos ha manifestado su preocupación por los efectos potencialmente perjudiciales de la inteligencia artificial generativa en sectores como el periodismo y la creación de contenido. La senadora Amy Klobuchar, junto con siete colegas del Partido Demócrata, ha instado a la Comisión Federal de Comercio (FTC) y al Departamento de Justicia a investigar productos de inteligencia artificial generativa, como ChatGPT, en relación con posibles violaciones de las leyes antimonopolio, según un anuncio oficial.

En una carta, los legisladores señalaron que varias plataformas en línea dominantes han lanzado recientemente nuevas características de inteligencia artificial generativa que responden a consultas de los usuarios resumiendo, o en ciertos casos, simplemente repitiendo contenido de otras fuentes y plataformas. Este desarrollo, afirman, amenaza la capacidad de los periodistas y otros creadores de contenido para obtener una compensación adecuada por su trabajo esencial.

Los legisladores han resaltado que los resultados tradicionales de búsqueda dirigen a los usuarios hacia los sitios web de los editores, mientras que los resúmenes generados por IA mantienen a los usuarios en la plataforma de búsqueda, permitiendo que esta última obtenga beneficios a través de publicidad y recopilación de datos. Además, estos productos pueden tener consecuencias competitivas significativas que distorsionan el mercado de contenido. Al responder directamente a una consulta, una característica de inteligencia artificial generativa a menudo obliga al creador de contenido, cuyo material queda relegado a un lugar menos visible en la interfaz de usuario, a competir con el contenido generado a partir de su propio trabajo.

La posibilidad de que la IA esté extrayendo información de sitios de noticias sin dirigir a los usuarios hacia la fuente original podría considerarse una forma de conducta excluyente o un método desleal de competencia, en violación de las leyes antimonopolio, según concluyeron los legisladores. Este asunto se suma a la potencial violación de las leyes de derechos de autor, otro ámbito legal separado.

Ya se han propuesto un par de proyectos de ley con el objetivo de proteger a artistas, periodistas y otros contra el uso no autorizado de la inteligencia artificial generativa. En julio, tres senadores presentaron el COPIED Act para combatir y monitorear el aumento del contenido generado por IA y los deepfakes. Más tarde, en el mismo mes, un grupo de senadores propuso el NO FAKES Act, que haría ilegal la recreación digital de la voz o la imagen de una persona sin su consentimiento.

La inteligencia artificial representa un riesgo considerable para el periodismo, tanto local como global, ya que puede eliminar las fuentes de ingresos necesarias para la realización de informes originales e investigaciones. Por ejemplo, The New York Times ha citado casos en los que ChatGPT proporciona a los usuarios "extractos casi verbatim" de artículos protegidos por muros de pago. Recientemente, OpenAI admitió que es imposible entrenar a la inteligencia artificial generativa sin utilizar materiales con derechos de autor.

  • Inteligencia Artificial
  • Periodismo
  • Derechos de Autor