La moderación de contenidos en los Estados Unidos de Trump es un campo minado político

Históricamente, las plataformas de redes sociales han administrado su moderación de contenido de suerte muy similar a un padre que administra una casa llena de adolescentes: si vives bajo mi techo, sigues mis reglas. Pero a medida que las redes sociales se han vuelto cada vez más omnipresentes en nuestra vida fuera de ringlera (y más inherentemente políticas), las preguntas se han convertido en: ¿Quién? en ingenuidad ¿Es dueño del techo, quién establece esas reglas y están en articulación nuestras libertades civiles?

Bajo la agencia del presidente electo Donald Trump, este debate probablemente se intensificará hasta que la politización de la moderación de contenidos impacto un punto anciano.

¿Cómo llegamos aquí?

La proceso de la moderación de contenidos comenzó lentamente y ganó velocidad a medida que crecía la influencia de las redes sociales. Se hizo cada vez más claro que había que hacer poco cuando Facebook, Twitter y YouTube desempeñaron papeles esencia en la Primavera Árabe, una serie de protestas en el mundo árabe en respuesta a la corrupción oficial, en la etapa de 2010. Facebook se utilizó como aparejo para que los activistas se organizaran, pero rápidamente se volvió controvertido. YouTube se debatió sobre si permitir videos violentos que tuvieran fines educativos o documentales en respuesta a activistas en Egipto y Libia que exponían la tortura policial. Casi al mismo tiempo, Twitter implementó su política de “tweets retenidos por el país”.

En 2013, documentos filtrados de las oficinas de moderación de Facebook mostraron qué contenido, exactamente, estaba moderando Facebook. Al año subsiguiente, la cuestión de la radicalización en ringlera surgió en las plataformas de redes sociales. YouTube revirtió su política de permitir ciertos videos violentos a posteriori de que uno que mostraba la cercenamiento del periodista James Foley se volviera virulento. Twitter enfrentó una reacción violenta por el acoso incontrolado por la independencia de las mujeres Cazafantasmas película, lo que llevó a un cambio de moderación del contenido.

Detrás de imagen, las personas que moderaron el contenido denunciaron condiciones laborales horribles. Y luego llegó 2016.

La desinformación y la desinformación plagaron las elecciones presidenciales estadounidenses entre Hillary Clinton y Trump. A pesar de que Facebook lanzó un software de comprobación de datos, las plataformas lucharon por detener la difusión de información errónea y la interferencia electoral. En Myanmar, el pueblo rohingya enfrentó enormes actos de violencia étnica alimentados por el contenido de Facebook. Mientras tanto, Facebook Live se convirtió en un zona para retransmitir suicidios y tiroteos, incluido el homicidio de Philando Castilla. En 2018, TikTok se lanzó en China y, ese mismo año, Twitter eliminó 70 millones de bots para frenar la influencia de la desinformación política. Más tarde ese año, YouTube publicó su primer crónica de transparencia y Facebook formó su Articulación de Supervisión, permitiendo a los usuarios apelar sus decisiones. En 2019, el ataque terrorista de Chirstchurch, que se transmitió en Facebook Live, dio zona al Llamado a la entusiasmo de Christchurch para eliminar el contenido terrorista y extremista violento en ringlera, un apartado de naciones “trabajando juntas bajo la epígrafe del Llamado para avisar a los terroristas y extremistas violentos”. de explotar Internet.” Twitter permitió a sus usuarios apelar la exterminio de contenido ese mismo año y, finalmente, TikTok se lanzó a nivel internacional.

Mientras tanto, Trump fue presidente. Firmó una orden ejecutiva para avisar la censura en ringlera, que apuntaba a la Sección 230 de la Ley de Honorabilidad en las Comunicaciones y tenía como objetivo frenar lo que consideraba prejuicios contra él y otros conservadores en la forma en que las plataformas moderan el contenido. Esto se produjo a posteriori de que Twitter marcara muchos de los tweets de Trump por contener información engañosa. Él y otros miembros de su partido acusaron a plataformas como Twitter, Facebook y Google de tener un sesgo anticonservador, lo que llevó a audiencias e investigaciones en el Congreso sobre contenido moderado, un tipo de impacto que Katie Harbath, fundadora y directora ejecutiva de la firma de políticas tecnológicas Anchor Change y un ex músico de Facebook, lo fuego “de reputación”.

La pandemia, el 6 de enero y el pico de politización

Entonces llegó el COVID-19. La desinformación sobre la invasión universal fue rampante y, como resultado, más personas murieron. Las reglas para moderar el contenido en ringlera se expandieron a nivel internacional para contrarrestar los fenómenos cada vez mayores del discurso de odio, la desinformación electoral y la desinformación sanitaria. Facebook introdujo políticas dirigidas a contenidos que niegan el Holocausto, grupos de odio, milicias organizadas y teorías de conspiración, mientras que Twitter lanzó su centro de transparencia.

Pero el 6 de enero de 2021 marcó un punto de inflexión. Plataformas como Facebook, Twitter y YouTube prohibieron o bloquearon las cuentas del entonces presidente Trump por incitar a la violencia durante el ataque al Capitolio.

“Yo diría que la exterminio de la plataforma de Trump fue una oscilación máxima del péndulo”, dijo a Mashable Katie Harbath, fundadora y directora ejecutiva de la firma de políticas tecnológicas Anchor Change y ex ejecutiva de Facebook. “Desde entonces, durante los próximos cuatro abriles, [platforms have] han vuelto un poco más al centro en términos de cuánto contenido están dispuestos a eliminar. [And] están siendo mucho más silenciosos al respecto. No están siendo tan transparentes al respecto porque no quieren tener un objetivo político a sus espaldas en torno a eso”.

¿Dónde estamos ahora?

Desde entonces, Trump ha sido reinstalado en todas las plataformas de redes sociales. Pero el foco se mantiene: los republicanos afirman que la moderación de contenidos silencia las voces conservadoras. Como dijo a Mashable Berin Szóka, presidente de TechFreedom: “La censura es simplemente moderación de contenido que a cierto no le gusta”.

Elon Musk, un autoidentificado “absolutista de la sencillez de expresión”, adquirió Twitter a finales de 2022 y alimentó esta retórica. En enero de 2023, los republicanos de la Cámara de Representantes establecieron un subcomité sobre la “militarización del gobierno federal”, cuyo objetivo es la supuesta censura de las opiniones conservadoras. En uno de sus primeros actos oficiales, enviaron cartas a grupos de investigación exigiendo cualquier documentación sobre la correspondencia entre esos grupos y el gobierno federal. El gobierno federal o las empresas de redes sociales sobre la moderación de contenidos. Mientras tanto, una demanda alegaba que la agencia del presidente Joe Biden presionó a las plataformas para que suprimieran la información errónea sobre el COVID-19, lo que, según los fiscales generales, era una forma de supresión del discurso.

Meta, en un cambio extraordinario, ha escaso su enfoque en el contenido político, particularmente en su competidor de Twitter Threads, lo que, según Harbath, “no es necesariamente moderación de contenido, sino una audacia sobre qué tipos de contenido presentan o no a la parentela”. “

¿Qué veremos en el futuro de la moderación de contenidos?

El presidente electo Trump ha hecho de la moderación de contenidos un tema de campaña. Brendan Carr, su predilecto para dirigir la FCC, ya se ha hecho eco de esta memorándum, pidiendo el desmantelamiento de lo que él fuego el “cártel de la censura” y un intento de “restaurar los derechos de sencillez de expresión para los estadounidenses comunes y corrientes”.

“Para lograrlo, tienen que intimidar o exigir a las empresas tecnológicas que expresen un discurso que no quieren expresar”, afirmó Szóka. “Los republicanos están en supresión por la moderación de contenidos”.

Esta “supresión” probablemente se desarrollará en varios frentes diferentes: congresista y reputacional, como dice Harbath. En términos de reputación, veremos más audiencias en el Congreso con ejecutivos de tecnología, más publicaciones de Trump sobre X y más energía dudosa con respecto a la moderación de contenido en genérico. Legislativamente, tenemos un camino interesante por delante.

Como dice Szóka, Carr probablemente seguirá las órdenes de Trump con respecto a los criterios de elegibilidad para la Sección 230 inmunidad, que “otorga inmunidad total para las actividades del editor o del orador, independientemente de si el discurso impugnado es ilegal”. Esto significa que Facebook no es responsable de la desinformación, el discurso de odio o cualquier otra cosa que se caiga en la plataforma que posee y administra con su moneda.

“[Republicans will] “Utilice la Sección 230 porque al hacerlo, pueden sostener: ‘No estamos exigiendo torpe'”, dijo Szóka. “Usted es evadido, como empresa privada, de hacer lo que quiera. Pero si quieres inmunidad según la Sección 230, tienes que ser objetivo y nosotros decidimos qué es objetivo”.

Harbath ve caos en el futuro, pero se pregunta si la Sección 230 en efectividad cambiará: “Probablemente habrá un debate y una discusión en torno a ella, pero soy escéptico sobre si la Sección 230 en efectividad cambiará o no”.

Al mismo tiempo, el auge de la IA está remodelando el futuro de la moderación de contenidos. “En los próximos cuatro abriles, la forma en que la parentela consume información, lo que estamos hablando hoy será completamente irrelevante y se verá completamente diferente”, dijo Harbath. “La IA simplemente cambiará la forma en que pensamos sobre nuestras fuentes de noticiario, los incentivos para las personas, lo que publican, cómo se ve, y abrirá nuevos desafíos para las empresas de tecnología en términos de cómo se politiza”.

¿Deberíamos asustarnos? Probablemente no. Según Harbath, todavía es demasiado pronto para predecir cómo será la moderación de contenidos bajo un segundo mandato de Trump. Pero deberíamos perseverar los fanales abiertos. Las reglas de moderación de contenidos (y quién puede escribirlas) están cada vez más determinadas por el poder político, la percepción pública y la proceso tecnológica, lo que prepara el ámbito para batallas por la sencillez de expresión, la responsabilidad corporativa y el papel del gobierno en la regulación de los espacios en ringlera.

“En genérico, es demasiado pronto para digerir exactamente cómo será esto”, dijo Harbath.