Las imágenes falsas de huracanes generadas por IA pueden tener consecuencias reales.
La inteligencia artificial engañosa no solo busca confundirte, sino que también podría estar intentando estafarte.
Recientes investigaciones han señalado que las imágenes y videos generados por inteligencia artificial relacionados con el Huracán Milton podrían tener implicaciones más serias que simplemente ser contenido engañoso en redes sociales. Tras el paso de este huracán de categoría 3, que causó estragos en partes de Florida, plataformas como X, TikTok y Facebook se han llenado de este tipo de contenido. Algunos de estos videos e imágenes son fácilmente reconocibles, como aquél donde una niña abraza a un caimán en un bote bajo la lluvia. Sin embargo, otros son más sofisticados, como las imágenes generadas por IA que mostraban un Disney World inundado, las cuales engañaron a muchas personas e incluso fueron compartidas por un medio de propaganda ruso.
El fenómeno del material generado por IA está generando no solo desinformación, sino también oportunidades para estafas. En diversos espacios digitales, la imagen de los caminos de Disney World bajo el agua es ya muy conocida. TikTok, por ejemplo, presenta numerosos videos que muestran a Hurricane Milton causan estragos, algunos de los cuales indican ser generados por IA. Aunque algunos videos llevan etiquetas que lo señalan, es sencillo imaginar que otro usuario pueda compartirlos fuera de contexto. Según Karen Panetta, profesora de ingeniería eléctrica y computación en la Universidad de Tufts, los contenidos generados por IA pueden ser utilizados para sembrar el pánico y la confusión en la población. Ella explica que "menos del 30% de la población adulta entiende lo que la IA puede hacer", lo que facilita la propagación de información errónea.
Es fundamental aclarar que el daño real causado por el Huracán Milton es devastador, pero la aparición de contenido generado por IA complica la percepción de la realidad y puede fomentar teorías conspirativas en torno a desastres naturales. Un usuario en X, por ejemplo, puso en duda la autenticidad de un material tomado por el astronauta Matthew Dominick, sugiriendo que no estaba en el espacio. Este material ha sido verificado como verdadero. Sin embargo, algunos de los satélites que afirmaban mostrar imágenes del Huracán Milton fueron desmentidos como mal etiquetados o imitación generada por IA.
Por otra parte, los expertos advierten sobre la vigilancia ante posibles estafas que utilizan imágenes generadas por inteligencia artificial. La Comisión Federal de Comercio publicó un aviso un día antes del paso del huracán, alertando sobre la potencial explotación de desastres naturales para cometer fraudes o elevar precios. Panetta resalta cómo los estafadores pueden beneficiarse de la IA para hacer más persuasivas sus tácticas, como crear páginas web de recaudación de fondos que no son legítimas.
Un ejemplo claro de esta manipulación emocional es una imagen viral de una niña llorando y sosteniendo un cachorro tras el Huracán Helene, que busca evocar la compasión y la voluntad de donar. Aunque algunos usuarios de internet puedan identificarlo como falso, muchos otros podrían no darse cuenta, convirtiéndose en blancos fáciles para el fraude.
Las imágenes generadas por IA, aunque parezcan inofensivas, a menudo forman parte de una estrategia más amplia para engañar a las personas. Panetta menciona que el engaño busca convencer a los posibles contribuyentes de su legitimidad antes de solicitarles una donación. La vulnerabilidad que generan desastres naturales como el Huracán Milton hace aún más crucial mantener un pensamiento crítico y reflexionar antes de reaccionar ante cualquier contenido en línea. La FTC también recomienda ser cauteloso y evitar pagos mediante transferencias, tarjetas de regalo o criptomonedas, sugiriendo buscar recursos que ayuden a evitar estafas tras una emergencia climática.