Silencio digital: el impacto de la moderación de contenido en redes y las organizaciones sociales

Seguro viste la noticia de que Instagram ya no mostrará contenido político y que, si las personas quieren ver este contenido, tendrán que ir a configuración para habilitar esta opción, ¿ya habilitaste esta opción o te acabas de enterar?.


La declaración de Meta, la empresa matriz de Instagram, Threads y Facebook, sobre sus cambios en la forma en que se recomienda el contenido político en sus plataformas ha generado una serie de preocupaciones entre las organizaciones sociales que trabajan por los derechos humanos.

Este comunicado, que busca “mejorar la experiencia del usuario” al reducir la aparición proactiva de contenido político en las áreas de recomendación, plantea preguntas sobre el acceso a la información, la visibilidad de las causas sociales y el impacto en la participación ciudadana.

El anuncio de Meta establece que no se mostrará proactivamente contenido político en las superficies de recomendación de Instagram y Threads, lo que significa que los usuarios verán menos contenido político sugerido en secciones como Explorar, Reels y Recomendaciones en el Feed. Si bien esto puede parecer una medida para evitar la saturación del contenido político en las plataformas sociales, plantea desafíos significativos para las organizaciones que dependen de estas plataformas para difundir su mensaje y movilizar información.

Una de las principales preocupaciones radica en la dificultad que enfrentarán las organizaciones de derechos humanos para alcanzar a nuevas audiencias. Con la reducción de la visibilidad del contenido político en las áreas de recomendación, las publicaciones de estas organizaciones podrían perder alcance y, por lo tanto, tener menos impacto en la concienciación y la promoción de los derechos humanos. Esto podría resultar en una disminución de la participación del público en temas cruciales como la justicia social, la igualdad de género y la libertad de expresión.

Además, la implementación de un control para que los usuarios elijan ver contenido político podría llevar a una mayor polarización de las opiniones y la información a la que están expuestas. Si bien es importante que los usuarios tengan el control sobre el tipo de contenido que consumen, esto podría resultar en la formación de «burbujas de filtro», donde los usuarios solo ven contenido que refuerza sus propias creencias y perspectivas, limitando así su exposición a opiniones diversas y la información necesaria para una participación cívica informada.

Por otro lado, el comunicado de Meta también plantea interrogantes sobre la transparencia y la equidad en el tratamiento de las cuentas y el contenido político. La capacidad de las cuentas profesionales para verificar si cumplen con los requisitos para ser recomendadas en función de su historial de publicaciones políticas puede generar preocupaciones sobre el sesgo algorítmico y la posibilidad de que ciertas voces sean silenciadas injustamente en las plataformas.

Por lo que, si bien Meta afirma que estos cambios están destinados a mejorar la experiencia del usuario y dar más control a las personas sobre el contenido que consumen, es crucial que se aborden las preocupaciones planteadas por las organizaciones de derechos humanos. Es necesario garantizar que estas medidas no obstaculicen la difusión de información importante y la participación cívica en línea, y que se promueva una cultura digital inclusiva y comprometida con la defensa de los derechos humanos y la justicia social.

Moderación de contenido y organizaciones sociales

La moderación de contenido en las redes sociales puede afectar significativamente a las organizaciones sociales que trabajan en territorios y por los derechos humanos de varias maneras:

  1. Censura y supresión de la libertad de expresión:La moderación excesiva o injusta del contenido puede conducir a la censura de voces críticas, lo que limita la capacidad de las organizaciones para expresar sus opiniones y difundir información relevante sobre temas de derechos humanos. Esto puede ser especialmente problemático en territorios donde las libertades civiles son limitadas y las voces críticas son sistemáticamente silenciadas.
  2. Obstáculos para la visibilidad y el alcance:Las restricciones en la moderación de contenido pueden dificultar que las organizaciones sociales alcancen a su audiencia objetivo y difundan su mensaje de manera efectiva. Si el contenido de estas organizaciones se considera controvertido o políticamente sensible, es más probable que sea restringido o eliminado por las plataformas de redes sociales, lo que limita su visibilidad y alcance.
  3. Impacto en la movilización y la acción: Las redes sociales son una herramienta crucial para la movilización y la acción colectiva en apoyo a los derechos humanos. La moderación de contenido que afecta negativamente la visibilidad y la capacidad de las organizaciones para comunicarse con su audiencia puede obstaculizar los esfuerzos de movilización y reducir la participación en acciones sociales y políticas.
  4. Riesgo de represalias y amenazas:En algunos territorios, las organizaciones sociales y los defensores de los derechos humanos enfrentan riesgos significativos, como la represión estatal, la intimidación y las amenazas de grupos adversos. La moderación inadecuada del contenido puede exponer a estas organizaciones a un mayor riesgo al permitir la difusión de discurso de odio o información falsa que puede ser utilizada para atacar o difamar a los defensores de los derechos humanos.
  5. Desafíos para la construcción de redes y alianzas:Las redes sociales son espacios importantes para la construcción de redes y alianzas entre organizaciones sociales y defensores de los derechos humanos. La moderación de contenido que limita la interacción entre estas organizaciones puede dificultar la colaboración y la coordinación en la defensa de los derechos humanos y la promoción del cambio social.

En resumen, la moderación de contenido en las redes sociales puede tener un impacto significativo en las organizaciones sociales que trabajan en territorios y por los derechos humanos, afectando su capacidad para expresarse libremente, alcanzar a su audiencia, movilizar acciones y enfrentar riesgos relacionados con la seguridad. Es importante que las plataformas de redes sociales aborden estos desafíos de manera justa y equitativa, protegiendo al mismo tiempo la libertad de expresión y la seguridad de los defensores de los derechos humanos.

El cambio en la política de recomendación de contenido político en Instagram y Threads, anunciado por Meta, plantea preocupaciones significativas para las organizaciones sociales que defienden los derechos humanos. ¿Cómo afectará esta nueva medida a la visibilidad y alcance de sus mensajes en las plataformas sociales? ¿Qué impacto tendrá en la participación ciudadana y la movilización de apoyo? Además, ¿cómo pueden abordar estas organizaciones los desafíos adicionales que enfrentan debido a la moderación de contenido, que incluye censura, limitaciones en la visibilidad y riesgos de represalias? Es crucial que las plataformas de redes sociales aborden estas preocupaciones y promuevan un entorno digital inclusivo que respete la libertad de expresión y apoye la defensa de los derechos humanos.


Todas las columnas de la autora en este enlace: Camila Gil

Camila Gil

Antropóloga social de la Universidad de Antioquia, activista y divulgadora digital. Asesora en ONU Mujeres en temas de juventudes y derechos humanos digitales e investigadora y asesora en Universidad de Los Andes en pedagogías digitales del Equipo Consultivo Comunitario. Integrante de la Red de jóvenes constructores de paz y de espacios de participación.

Comentar

Clic aquí para comentar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.