Desde desnudos hasta cadáveres: todo lo que ven los moderadores de contenido de Facebook
A menudo se habla sobre el valioso tiempo que se pierde en el celular mirando las redes sociales. Se habla de la adicción que generan estos sitios, de esa necesidad incontrolable de mirar lo que hacen los demás. Para algunos, sin embargo, eso no es un pasatiempo, sino un forma de trabajo: les pagan por mirar publicaciones en las plataformas.
Se trata de los moderadores de contenidos. Claro que no sólo se encargan de "ver" lo que se publica, sino que tienen la función de asegurarse de que ese contenido no incumpla con las normas de convivencia que cada uno de esos sitios tienen.
Sarah Katz, una ex modera de contenido de Facebook, contó en una nota del Wall Street Journal, que a diario revisaba 8.000 publicaciones, hasta que finalmente renunció en 2016.
Por su parte, otro moderador de esa misma red social, le dijo a la BBC que en su empleo tenía como objetivo era evaluar 3.500 textos, fotos y videos por día. Es decir, un contenido cada 8,5 segundos.
Sin embargo, la empresa aseguró en un comunicado publicado en julio, que ellos no obligan a los revisores a evaluar un número determinado de publicaciones porque entienden que el tiempo puede variar según el caso.
"Proporcionamos pautas generales sobre cuánto tiempo creemos que puede tomar revisar diferentes tipos de contenido para asegurarnos de que tenemos el personal que necesitamos, pero alentamos a los revisores a que tomen el tiempo que necesitan", subrayan.
El entrenamiento
Antes de comenzar, los moderadores tienen una reunión previa para entender de qué se trata el empleo, las condiciones de trabajo y los recursos con los que contarán.
Luego llega un entrenamiento de 80 horas con un tutor; seguido de una experiencia práctica donde se replica el sistema de trabajo que eventualmente tendrán que afrontar.
Después de esto, los postulantes reciben una devolución de su desempeño y, una vez contratados, cuentan con asesoramiento continuo y clases para estar actualizados, destacan desde la empresa.
Los moderadores suelen evaluar imágenes que incluyen desnudos y escenas de violencia (iStock)
Cómo es el proceso de moderación
Una vez que alguien reporta un contenido por considerar que viola las normas de Facebook, ese material llega al equipo de moderadores, según su idioma o el tipo de infracción que se haya determinado. En caso de ser necesario, el asunto también puede ser derivado a otros expertos dentro de la compañía.
Cada moderador recibe una cierta cantidad de publicaciones para evaluar una por una. A veces esto puede requerir solo mirar el post, pero en otros casos también hay que evaluar el contexto, que se puede inferir, por ejemplo, por los comentarios que recibió esa publicación, según se remarca en el comunicado de la compañía.
La rutina laboral
Algunos revisores trabajan de manera independiente, durante media jornada; en tanto que otros cumplen jornadas completas en las sedes de las compañías. Tal es el caso de Felisa que pasa más de 7 horas analizando contenido en una de las oficinas de Facebook, según contó en una entrevista con el sitio Next.
"A cada uno nos asignan un mercado, según el idioma. Y luego hay dos grupos: los que trabajan directamente con el contenido que se está reportando en tiempo real, con lo que denuncian los propios usuarios, y los que trabajamos etiquetando el contenido que ya se ha analizado", detalló Felisa.
Su trabajo implica mirar horas y horas de contenido que va desde violencia gráfica hasta desnudos o material con contenido sexual. En el caso de Alberto, otro moderador citado por Next, su tarea es muy diferente. Él tiene que analizar los estados de Facebook y evaluar si hay algún tipo de contenido que obligue al usuario a compartir la publicación, hacer clic en algún link o a etiquetar a otros contactos.
Los moderadores de contenido reciben un entrenamiento teórico y práctico antes de comenzar a trabajar.
Claro que para poder evaluar eso también tiene que pasar horas y horas viendo todo tipo de posts. "A mí me sale muchísimo contenido de Latinoamérica, sobre todo de México, supongo que para evitar encontrarme con contenido de gente cercana a mí. Uno de los estados que vi fue un bebé cortado por la mitad por un cártel de la droga", contó en la entrevista.
¿Por qué hay moderadores humanos? Porque la inteligencia artificial no es capaz de reconocer sutilezas en un video, una foto o un text. Es incapaz de ver la diferencia entre algunos microgestos o de inferir la intención que puede haber detrás de un acción.
Prueba de ello fueron la cantidad de publicaciones que fueron censuradas por error, como la famosa foto de una niña vietnamita desnuda escapando de un ataque con napalm. O el hecho de que se hayan visto publicados videos de asesinatos y suicidios.
Luego de esos episodios, la compañía comenzó a apoyarse, cada vez más, en revisores humanos para la moderación de contenidos. Hoy el gigante de Menlo Park cuenta con un equipo de seguridad integrado por más de 30 mil personas, de las cuales la mitad son revisores de contenido (algunos son empleados fijos, algunos son freelancers y otros son parte de compañías con las cuales Facebook está asociada para desarrollar estas tareas) en más de 50 idiomas. En total, la empresa tiene 20 centros de revisión de contenido en países como Alemania, Irlanda, Letonia, España, Filipinas y Estados Unidos).
La vida de los moderadores puede ser agotadora y hasta dañina, según cuentan algunos de ellos. De hecho, en septiembre de 2018 una ex empleada de Facebook que trabajaba como moderadora demandó a la empresa por considerar que quienes realizan esa tarea enfrentan traumas mentales.
Los moderadores de contenidos de Facebook bajo contrato son "bombardeados" con "miles de videos, imágenes y transmisiones en vivo de abuso sexual infantil, violaciones, torturas, bestialidad, decapitaciones, suicidio y homicidio", se mencionó en la demanda. Y se remarcó que los moderadores deben analizar innumerables imágenes angustiantes y no son protegidos debidamente por la compañía.
en septiembre de 2018 una ex empleada de Facebook que trabajaba como moderadora demandó a la empresa por considerar que quienes realizan esa tarea enfrentan traumas mentales.(AFP)
"El trabajo no es fácil. A veces implica mirar contenido perturbador o violento y tomar decisiones respecto de qué acción llevar adelante, teniendo en cuenta el contexto cultural y las normas de comunidad que establecen nuestras políticas", se lee en un comunicado de Facebook donde se detallan las condiciones de empleo de este tipo de personal.
Facebook remarca en ese texto que no sólo buscan personal que conozca el idioma y el contexto cultural de las publicaciones que analizan, sino que también quieren que el candidato tenga "resiliencia", es decir "que el candidato pueda lidiar con imágenes violentas, por ejemplo". También remarcan que cumplen con los requisitos y las normativas de empleo correspondientes.
Asistencia psicológica
Según se detalla en el comunicado, la empresa cuenta con un grupo de psicólogos en las diferentes regiones que están encargados de diseñar y evaluar los programas de resiliencia para todos aquellos que trabajan con contenido explícito o que por algún motivo pueda ser considerado objetable.
"Todos los moderadores de contenido-ya sean empleados de tiempo completo, contratados o aquellos que hayan sido empleados por empresas asociadas-tienen acceso a recursos de salud mental, incluidos profesionales capacitados en el lugar para recibir asesoramiento tanto individual como grupal. Y todos los revisores tienen beneficios completos de atención médica", se subraya en el documento
Fuente infobae
No hay comentarios.:
Publicar un comentario