Cover Image for La FCC desea que la voz generada por IA te informe que es un deepfake.

La FCC desea que la voz generada por IA te informe que es un deepfake.

Las llamadas automáticas ya no pueden hacerse pasar por personas.

Las voces generadas por inteligencia artificial han llegado a un nivel de realismo tal que pueden engañar a muchas personas, provocando la explotación de estas tecnologías en llamadas automáticas. Para abordar este problema, la Comisión Federal de Comunicaciones de EE.UU. (FCC) está trabajando en una propuesta que busca proteger a los consumidores de las llamadas indeseadas e ilegales generadas por IA.

El plan de la FCC incluye la definición de lo que constituyen este tipo de llamadas y mensajes de texto, lo que permitirá establecer normas que obliguen a las voces artificiales a revelar su naturaleza falsa al momento de realizar una llamada. Esta iniciativa se enmarca dentro del esfuerzo de la FCC por combatir las molestias que generan las llamadas automatizadas y su uso para fraudes. La dificultad para detectar tales esquemas es un motivo más que justifica esta propuesta, que estipula que el inicio de las llamadas debe incluir una declaración del sistema IA sobre su origen tanto en lo que dice como en la voz utilizada. Las organizaciones que no cumplan con esta regulación se enfrentarían a multas significativas.

Esta propuesta se suma a una resolución de la FCC emitida a principios de año, que declaró ilegal el uso de tecnología de clonación de voz en llamadas sin el consentimiento del receptor. Este enfoque surgió tras un incidente en el que una voz clonada del presidente Joe Biden, combinada con un uso engañoso de la identificación del llamante, confundió a los votantes de New Hampshire antes de las elecciones primarias de enero de 2024.

Además de atacar directamente a las fuentes que realizan estas llamadas, la FCC también busca implementar herramientas que alerten a los usuarios sobre llamadas y mensajes de texto generados por IA, especialmente aquellos no solicitados o ilegales. Estas herramientas podrían incluir filtros de llamadas mejorados que prevengan estas interacciones, algoritmos de detección basados en IA, y mejoras en la identificación de llamadas para señalar cuando se trata de comunicaciones generadas artificialmente.

Para los consumidores, las propuestas de la FCC ofrecen una defensa adicional contra las tácticas cada vez más complejas utilizadas por estafadores. Al exigir transparencia y mejorar las herramientas de detección, la FCC espera reducir los riesgos de que los ciudadanos caigan en fraudes generados por IA.

No obstante, la FCC también reconoce que las voces sintéticas han sido utilizadas para fines positivos, como ayudar a personas que han perdido la voz a comunicarse nuevamente, así como ofrecer nuevas posibilidades para quienes tienen discapacidades visuales. La presidenta de la FCC, Jessica Rosenworcel, comentó sobre la creciente preocupación del público respecto a contenidos engañosos generados por IA y enfatizó la importancia de la transparencia y la acción rápida para mitigar los riesgos, mientras se maximizan los beneficios potenciales de esta tecnología.