Control de contenidos

Los intermediarios de internet –Twitter, Facebook, Youtube, entre otros– pueden determinar qué contenidos es posible compartir en sus plataformas. Es lo que se conoce como moderación de contenidos. Las amenazas o divulgación de información privada de terceros, por ejemplo, suelen ser categorías prohibidas. Hay otras, sin embargo, que resultan más problemáticas. Es el caso de algunas de las reglas que han creado los intermediarios para enfrentar la desinformación alrededor de la pandemia u otros temas críticos para la sociedad, como las elecciones.

A la acción de estos actores privados se suma la del Estado, que puede aplicar normas generales o expedir otras específicas para controlar los contenidos que circulan en internet y que consideran problemáticos para el interés público, ya sea porque desinforman a la gente, publicitan tratamientos riesgosos o promueven teorías de la conspiración. Si bien este propósito es legítimo, puede tener un impacto negativo en la libertad de expresión.

En esta sección se encuentran documentos y análisis relevantes sobre el control de contenidos por parte del Estado y de las plataformas de internet.


Acceso
Privacidad
Control de contenidos
Transparencia
Covid-19