Facebook ha vivido su particular “Annus horribilis”. Desde que
se destapó el escándalo de Cambridge Analytica, los problemas para
la red social más importante del mundo no han hecho otra cosa que
crecer. El 2018 deja para la empresa creada por Mark Zuckerberg unos
registros bursátiles nada halagüeños y una ristra de
escándalos.
The New York Times ha tenido acceso, gracias a una filtración, a
los parámetros que rigen el debate de Facebook. La compañía cuenta
con un grupo de trabajadores que se encargan de decidir si un debate
acontecido en la red social puede difundir el odio o hacer apología
de la violencia.
Según el rotativo estadounidense, las herramientas para moderar
los debates son parciales, erróneos y están desactualizados.
A juzgar por la información a la cual ha tenido acceso el diario,
los moderadores –unos 7.500 repartidos por todo el mundo- contarían
con muy poco tiempo para determinar si un contenido incumple las
reglas de Facebook. Por norma el tiempo para decidirlo está entre
los 8 y los 10 segundos.
El diario ha tenido acceso a 1.400 folios de un documento filtrado
por un trabajador mediante el cual los moderadores tienen algunas
directrices para hacer su trabajo. Este archivo está, teóricamente,
hecho en función del contexto de cada región. Sin embargo, The New
York Times determina que existen muchos errores en las directrices
según el propio contexto.
Además, añade que el documento,
redactado en inglés, hace todavía más imposible que se analice
verdaderamente el marco territorial en el cual se produce un debate
en la red social.