#3723
Javier Plaza
Moderador

Gracias Cristina y Carolina por los recursos y las noticias sobre este asunto. Apuntais un reto clave: como hacer que las plataformas se hagan responsables de controlar contenido tóxico, bulos, fake news y discurso de odio en sus redes que llegan a miles de millones de personas en todo el mundo.

Sin duda la presión de los anunciantes es útil, pero yo creo que no resuelve el fondo de la cuestión. El único motivo por el que los anunciantes presionan a las plataformas para que controle estos contenidos es el beneficio económico. Creen que van a ganar más dinero presionando a Facebook o Twitter que no haciéndolo, y entonces se produce un trasvase de la estrategia de la rentabilidad de un agente económico a otro. Esto puede durar o no, y como sociedad no tenemos ningún control sobre ello.

Yo creo que tienen que ser los estados, y las alianzas entre instituciones y sociedad civil, los que articulen herramientas legastivas e impositivas que obliguen a las plataformas a controlar este tipo de contenidos. Y hay que hacerlo vinculando a esos contenidos el componente delictivo del discurso de odio sustentado por dichos bulos. En la actualidad, las plataformas han creado un nuevo tipo de empleo llamado «revisor de contenidos», con el que ponen tierra de por medio haciendo que otra empresa les contrate con un contrato de confidencialidad. De esto se habla en un documental muy interesante llamado «Trabajadores fantasma» que se puede ver aquí:

https://www.documaniatv.com/social/trabajadores-fantasma-video_bd817bfb9.html

  • Esta respuesta fue modificada hace 3 meses por Javier Plaza.