Advertisement

Un estudio revela que Facebook podría reducir el impacto viral de los bulos, pero su moderación es incierta en 2024

En un mundo cada vez más interconectado a través de las redes sociales, el impacto de los bulos y la desinformación se ha convertido en una preocupación central, especialmente durante eventos clave como las elecciones. Un reciente estudio ha arrojado luz sobre cómo las políticas de moderación de Facebook, propiedad de Meta, influyen directamente en la distribución y viralización de contenidos falsos. Aunque la plataforma logró reducir considerablemente las visualizaciones de información errónea durante las elecciones presidenciales de 2020 en EE. UU., este impacto no se replicó en los comicios de 2024, lo que genera inquietudes sobre la capacidad de las redes sociales para controlar la desinformación de manera efectiva.

El cambio drástico en 2020: un experimento de moderación extrema

Según datos proporcionados por Meta, las visualizaciones de contenidos etiquetados como desinformación en Facebook disminuyeron drásticamente de 50 millones en julio de 2020 a prácticamente cero en noviembre de ese mismo año, justo antes de las elecciones presidenciales. Este cambio radical fue el resultado de una medida de moderación extrema denominada «romper el cristal», implementada para frenar la viralización de contenidos problemáticos en un momento crucial para la democracia estadounidense.

El éxito de estas medidas fue claro, pero también reveló la delicada línea que las redes sociales deben caminar entre la moderación efectiva y la libertad de expresión. Meta reconoció que, en su esfuerzo por eliminar la desinformación, se produjo un exceso de restricciones, limitando incluso contenidos inocuos y castigando injustamente a usuarios que no violaban ninguna norma. Según Nick Clegg, presidente de Asuntos Globales de Meta, la empresa «ha aprendido la lección de la moderación excesiva», pero la pregunta sigue siendo: ¿cuánto está dispuesta a ceder la plataforma en sus esfuerzos por mantener el equilibrio entre el control de la desinformación y la libertad de expresión?

Desinformación y poder corporativo

Uno de los puntos más críticos de esta investigación, liderada por el profesor David Lazer de la Universidad Northeastern de Boston, es la preocupación sobre el poder que estas plataformas ejercen sobre el flujo de información. En el estudio, Lazer señala que las decisiones tomadas por los directivos de plataformas como Meta pueden ser guiadas por intereses corporativos, en lugar de por el interés público y el bienestar democrático. «La preocupación es que estas empresas ignoren el interés público general, solo para cumplir con su objetivo de ganar dinero a corto plazo», comenta Lazer. Esto genera un dilema sobre la independencia de las redes sociales y su rol en la protección de los procesos democráticos.

El poder de las reglas de moderación y la influencia de los pequeños grupos

El estudio también confirma lo que investigaciones anteriores habían sugerido: la distribución de la desinformación en las redes sociales depende en gran medida de un pequeño grupo de usuarios altamente disciplinados. Sandra González Bailón, profesora de la Universidad de Pensilvania y coautora del artículo, destaca que solo alrededor del 1% de los usuarios son responsables de la difusión de la mayoría de los contenidos etiquetados como desinformación. Este patrón se repite en diferentes plataformas, lo que sugiere que la concentración de poder de difusión en manos de una minoría es un fenómeno común.

Sin embargo, las dinámicas varían de una plataforma a otra. Las características propias de Facebook, como el funcionamiento de Páginas y Grupos, y sus políticas de moderación, pueden tener un mayor impacto en la viralización de contenidos que el propio algoritmo de la plataforma. Esto resalta la importancia de entender cómo las reglas internas de cada red social afectan la distribución de la información, más allá de la tecnología que emplean.

Las operaciones de influencia en 2024: ¿una victoria contra la desinformación?

Meta también ha revelado que, en 2024, eliminó unas 20 operaciones secretas de influencia organizadas por gobiernos extranjeros, principalmente de Rusia, Irán y China. Aunque la empresa afirma que estos intentos de manipulación no tuvieron éxito, la investigación pone en evidencia la capacidad de las redes sociales para influir en procesos democráticos a gran escala. En este contexto, la necesidad de una mayor transparencia en las políticas de moderación y en el control del flujo de información es más urgente que nunca.

El desafío de la regulación y la transparencia

La investigación también subraya la importancia de la regulación en el sector de las redes sociales. A medida que las plataformas asumen un papel más protagónico en la distribución de la información, la necesidad de una mayor transparencia en sus prácticas de moderación se vuelve indispensable. Si bien Europa avanza con iniciativas como la Ley de Servicios Digitales para regular estas plataformas, en EE. UU. aún no se ha logrado una legislación comparable.

«La investigación y el acceso a datos son la única manera de determinar cómo las plataformas controlan el flujo de información», afirma González Bailón. Sin una regulación adecuada, el control de la información seguirá siendo una fuente de poder que, según los expertos, no debería ejercerse en la oscuridad.

Conclusión: el futuro de la moderación de contenidos en redes sociales

El estudio sobre el impacto de las políticas de moderación de Facebook destaca una verdad incómoda: las plataformas sociales tienen el poder de alterar significativamente el panorama informativo y electoral, y este poder depende en gran medida de sus directivos y sus intereses. A pesar de los esfuerzos por frenar la desinformación, como se demostró en las elecciones de 2020, el desafío sigue siendo grande. En 2024, las políticas de moderación de Meta no lograron replicar los mismos resultados, lo que deja en el aire la pregunta de si las redes sociales pueden mantener la democracia sin sacrificar la libertad de expresión.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *