La moderación de contenido en la era de Trump es un campo de batalla político.
En el conflicto entre la libertad de expresión y la moderación de contenido, ¿quién determina las normas?
La moderación de contenido en las plataformas de redes sociales ha funcionado históricamente como lo haría un padre con un grupo de adolescentes: si vives bajo mi techo, sigues mis reglas. Sin embargo, a medida que las redes sociales han permeado más nuestras vidas y la política, surgen preguntas sobre quién realmente tiene el control, quién establece esas normas y si nuestras libertades civiles están en riesgo. Con la administración del presidente electo Donald Trump, es probable que este debate se intensifique aún más y alcance un punto crítico.
La evolución de la moderación de contenido comenzó de forma lenta, pero se aceleró a medida que la influencia de las redes sociales creció. La necesidad de regular se hizo evidente cuando plataformas como Facebook, Twitter y YouTube jugaron papeles cruciales durante la Primavera Árabe, donde Facebook se utilizó como herramienta de organización para los activistas. Sin embargo, eso trajo consigo una serie de controversias. YouTube se debatió sobre si permitir videos violentos con fines educativos, mientras que Twitter implementó su política de “tweets ocultos por país”.
En 2013, documentos filtrados de Facebook revelaron los tipos de contenido que moderaban. El año siguiente surgió la preocupación por la radicalización en las redes, y YouTube cambió su postura respecto a ciertos videos tras la viralización del de la decapitación del periodista James Foley. Twitter también enfrentó críticas por la falta de control frente al acoso en el contexto del lanzamiento de la película Ghostbusters. Mientras tanto, quienes moderaban el contenido en esas plataformas reportaron condiciones laborales terribles.
Todo esto se complicó con la llegada de 2016, un año marcado por la desinformación durante la elección presidencial entre Hillary Clinton y Trump. Aunque Facebook lanzó un programa de verificación de datos, las plataformas encontraron dificultades para frenar la difusión de información errónea. En Myanmar, el contenido en Facebook contribuyó a actos de violencia étnica contra los Rohingya. Además, Facebook Live se convirtió en un espacio para la transmisión de suicidios y tiroteos, incluyendo el caso del asesinato de Philando Castile.
En 2018, la llegada de TikTok trajo nuevos desafíos, mientras Twitter eliminó millones de bots para mitigar la desinformación política. Ese mismo año, YouTube publicó su primer informe de transparencia y Facebook estableció su Consejo de Supervisión, permitiendo a los usuarios apelar decisiones. La masacre en Christchurch, transmitida en Facebook Live, llevó a la creación del Christchurch Call to Action, buscando prevenir el uso del internet por parte de terroristas.
Durante este tiempo, Trump firmó una orden ejecutiva contra la "censura en línea", apuntando a la Sección 230 de la Ley de Decencia en las Comunicaciones por lo que consideraba sesgos hacia él y otros conservadores. Esta escalada se debió, en parte, a que muchos de sus tweets fueron etiquetados por Twitter como engañosos, lo que generó investigaciones en el Congreso sobre la moderación de contenido.
La llegada de la pandemia del COVID-19 exacerbó aún más la situación, con la proliferación de información errónea sobre el virus. Las regulaciones sobre moderación se ampliaron para abordar el discurso de odio y la desinformación electoral. En este contexto, el 6 de enero de 2021 representó un punto de inflexión: titanes como Facebook y Twitter prohibieron temporalmente las cuentas de Trump por incitar a la violencia durante la insurrección en el Capitolio.
Desde entonces, Trump ha recuperado su presencia en las redes sociales, pero el debate sobre la moderación de contenido no ha cesado. Los republicanos sostienen que esta práctica silencia las voces conservadoras. Con la adquisición de Twitter por Elon Musk, quien se declaró un "absolutista de la libre expresión", y el establecimiento de subcomités por parte de los republicanos sobre la "arma de la censura", se espera un ambiente más hostil hacia las plataformas de redes sociales.
Las discusiones futuras sobre la moderación de contenido se centrarán en cuestiones legislativas y de reputación. Con un posible segundo mandato de Trump, la moderación también se convertirá en un tema de campaña, mientras que se anticipan debates sobre la Sección 230 y su impacto sobre la responsabilidad de las redes.
A medida que la inteligencia artificial comienza a jugar un papel en la moderación de contenido, el panorama seguirá cambiando. A pesar de los pronósticos sobre lo que podría ocurrir con un segundo mandato de Trump, todavía es temprano para prever cómo se definirán las normas de moderación y quién las establecerá. Este entorno estará cada vez más moldeado por el poder político, la percepción pública y la evolución tecnológica, lo que generará nuevos desafíos en la regulación de los espacios en línea.