Documentos filtrados exponen los errores de moderación de contenido en Facebook

1.400 páginas filtradas sobre las reglas de moderación de contenido en Facebook exponen -aún más- los errores dentro de la empresa de Mark Zuckerberg.

FB

Claro que Facebook no podía cerrar uno de sus años más controversiales sin un escándalo más.

El New York Times (NYT) ha obtenido acceso a 1.400 páginas de las reglas internas sobre moderación de contenido en la plataforma, que exponen una vez más los errores de la empresa de Mark Zuckerberg.

Como parte de sus resoluciones de Año Nuevo para el 2018, el CEO y fundador de la red social prometió en enero pasado trabajar arduamente en no volver a permitir un escándalo como el de Cambridge Analytica. Pero se quedó muy lejos de cumplir su objetivo.

Los 20.000 moderadores de la empresa que se jacta de estar a la vanguardia tecnológica dependen de presentaciones en Power Point sobre lo que está permitido y prohibido publicar en Facebook por los más de 2.200 millones de usuarios de las red social en más de 100 idiomas a nivel mundial.

De acuerdo con los documentos sobre los que habla el reportaje del NYT publicado este jueves, docenas de empleados se reúnen dos veces al mes para revisar las políticas de contenido. Posteriormente, las extensas pautas acordadas en estas juntas son enviadas a sus más de 7.500 moderadores en diversos países.

Los empleados de Facebook que se reúnen para establecer las pautas, en su mayoría jóvenes ingenieros y abogados, tratan de destilar temas altamente complejos en simples reglas de sí o no.

Otro punto muy importante que recalca el texto es que estas «extensas reglas» hacen que la empresa de Menlo Park sea un «árbitro de discurso global mucho más poderoso de lo que ha sido públicamente reconocido o reconocido por la propia compañía».

Además, el trabajo de moderación está subcontratado y algunos de los moderadores se basan en Google Translate para tomar decisiones de una fracción de segundo sobre lo que se considera un discurso de odio o no, indica.

Muchas veces, a estos empleados se les exige que dejen publicado contenido que que podría inducir a la violencia porque no están claras las reglas al respecto, que «no siempre tienen sentido».

El escritor del medio que lideró la investigación, Max Fisher, resumió en su cuenta de Twitter tras la publicación del reportaje los mayores errores de Facebook en sus esfuerzos de moderación de contenido: errores administrativos que permitieron a un grupo extremista continuar publicando en la plataforma en Myanmar [contra la población rohinyá], así como directrices obsoletas escritas en «presentaciones de PowerPoint desorganizadas» para frenar una marea creciente de animosidad y nacionalismo en los Balcanes.

Otro de los aspectos más preocupantes que destaca el reportaje es el creciente poder político de Facebook al experimentar con diferentes técnicas de moderación, prohibiciones y eliminación de contenido. «En un esfuerzo por controlar los problemas de su propia creación, se ha convertido silenciosamente, con una velocidad que hace que incluso los empleados se sientan incómodos, lo que posiblemente sea uno de los reguladores políticos más poderosos del mundo», señala el NYT.

Para sorpresa de pocos, el medio infiere que en los lugares donde la empresa enfrenta mayores posibilidades de ser multada o regulada por parte del gobierno, como en Alemania, la moderación de contenido es también mucho más meticulosa que en otros países, como en Myanmar o la India.

En suma, la moderación de contenido en Facebook tendrá que volver a ser una de las resoluciones de Año Nuevo de Zuckerberg.

Deja un comentario