Las grandes plataformas de internet intentan controlar la desinformación

Moderación de contenidos por las plataformas de internet

Fecha

30 de enero de 2020

Resumen

Para afrontar la desinformación sobre el coronavirus en sus plataformas, empresas como Facebook, Twitter y Google han hecho ajustes en sus normas y procedimientos.

Descripción

Desde enero de 2020, plataformas de redes sociales y para compartir contenidos han hecho anuncios para informar qué están haciendo para limitar la desinformación. Una de las formas en las que se plataformas como Facebook, Twitter y YouTube han buscado limitar la información falsa, es a través del control de las publicaciones hechas por sus usuarios, en procedimiento conocido como “moderación de contenidos”.

En general, las empresas han anunciado cambios en la moderación de contenidos a través de dos tipos de medidas: la creación de reglas más estrictas sobre lo que se puede o no publicar en la plataformas y la implementación de más tecnologías de inteligencia artificial para implementar dichas normas.

Entre las medidas anunciadas está la prohibición de cualquier tipo de publicidad que use la expresión “Covid-19” o similares, contenido que contradiga la información producida por autoridades mundiales y nacionales de la salud, como la Organización Mundial de la Salud (OMS) o la restricción en el uso de etiquetas o hashtags. Otras medidas han sido anunciadas a través de los medios de comunicación y no directamente por las plataformas, como la decisión de Facebook de remover las publicaciones de eventos que convoquen a protestas contra el distanciamiento social que vayan en contra de las instrucciones de los gobiernos de algunos Estados en EE. UU.

Análisis

Linterna Verde Desde antes de la pandemia del coronavirus, la moderación de contenidos ha generado preocupaciones por el poder que tienen las plataformas para limitar el ejercicio de la libertad de expresión. Con la pandemia, las preocupaciones se intensifican. Si bien la desinformación dañina (como las que proponen tomar cloro para curar o prevenir el virus) justificaría un control estricto de los contenidos, la realidad demuestra que, entre las reglas estrictas y la implementación defectuosa, la moderación también ha afectado la publicación de contenidos legítimos.

Algunas reglas parecen desproporcionadas. Twitter, por ejemplo, no permite contradecir las recomendaciones de las autoridades sanitarias ni describir un tratamiento ineficaz, incluso si se hace en broma. Por su parte, Google inicialmente prohibió todo tipo de publicidad que incluya palabras relacionadas con el virus.

Por otra parte, los sistemas de detección y retirada de contenidos infractores generan falsos positivos. Por ejemplo, en marzo, Facebook eliminó por error miles de contenidos legítimos sobre el coronavirus identificados incorrectamente como spam.

Actualizaciones

Sin actualizaciones.

Enlaces relevantes


Ciberpatrullaje de la Policía Nacional para identificar desinformación
Memorando de entendimiento entre DAFP y Corte Constitucional
Acceso
Privacidad
Control de contenidos
Transparencia