CONDICIONES LABORALES
Moderadores de Tiktok, al límite: "Vemos violaciones, porno infantil, asesinatos… te entra en la cabeza y no se va"
La Inspección de Trabajo multa a Majorel, la subcontrata que vigila los vídeos que los usuarios cuelgan a la aplicación, por no prevenir lo suficiente los riesgos para la salud mental de la plantilla

Logo de Tiktok / MATEUSZ SLODKOWSKI / ZUMA PRESS / CONTACTOPHOTO
Un joven haciendo una receta de una tarta de chocolate. Scroll. Dos niños saltando en una cama elástica. Scroll. Una adolescente enseñando cuales son los productos que usa para su morning routine. Scroll. Otro joven haciendo una receta de pollo coreano. Scroll. Una chica que cuenta como es el día 169 de su vuelta al mundo en un coche del siglo pasado. Scroll. Así durante ocho horas al día, intercaladas con algún descanso, viendo una media de entre 400 y 600 vídeos diarios de Tiktok.
"Te pagan para ver personas inútiles haciendo cosas inútiles y sentirme un inútil mirándolo", cuenta Joshua, hasta hace poco moderador de contenidos de la red social de moda y que tiene en Barcelona uno de sus mayores centros de control de vídeos de Europa. O al menos estos son la mayoría de vídeo que ve un moderador durante su día a día, hasta que entre receta y receta asoma el horror. "Trabajamos viendo vídeos de violaciones, pornografía infantil, asesinatos, torturas, bullying, suicidios. Prácticamente cualquier cosa que te puedas imaginar. Y las que no se pueden imaginar también”, afirma Laura, actualmente moderadora de contenidos.
Vemos cualquier cosa que te puedas imaginar y las que no se pueden imaginar también
Joshua o Laura son o han sido el filtro que se interpone entre cualquier persona con un teléfono móvil y las imágenes de una persona apaleando a un animal hasta la muerte y riéndose tras ello. O el vídeo que muestra como una bomba cae en un mercado de Gaza y mata o mutila a decenas de personas, por citar alguno de los ejemplos que ellos mismos explican.
Algunos más explícitos, otros más sutiles. "Ves de todo, vídeos de una persona explicando que Joe Biden secuestra niños para quitarles el colágeno y así poder ser más joven. O teorías de la conspiración sobre qué hay tras el atentado de las torres gemelas, que el covid no existe o que mañana va a empezar la tercera guerra mundial", cuenta Gemma, otra moderadora con la que ha podido hablar EL PERIÓDICO.
Tanto ella como Laura aparecen en este reportaje bajo pseudónimo, ya que Majorel SP Solutions, la empresa que gestiona desde 2019 este servicio de control para Tiktok, les obliga a firmar un contrato de confidencialidad que les impide contar cómo es su día a día. Como ellos, hay unos 650 trabajadores operando como moderadores desde Barcelona, según fuentes sindicales consultadas.
Estos teleoperadores, según el convenio estatal de los ‘contact center’ perciben un sueldo base de unos 1.200 euros netos, si están a tiempo completo. A lo que cabe sumar un plus por idioma, ya que desde Barcelona se vigila contenido emitido en toda Europa y Latinoamérica. Dependiendo del número de idiomas y la rareza de los mismos, dicho complemento puede oscilar desde unos 150 euros por francés, unos 300 euros por alemán o llegar hasta 600 euros para un sueco.
'Smiley face'
Según narran estos tres empleados, el sistema organizativo de la compañía para evitar que a los usuarios les aparezca en su pantalla contenido sensible se estructura en un esquema de tres filtros, de más a menos explícito. El primero se encargaría de aquellos vídeos que directamente muestran una escena sexual o violenta, más impactantes para el espectador y fácilmente descartables por inapropiados. El segundo es de análisis más fino, vídeos más o menos largos pero que pueden contener mensajes de odio o desinformación con temas de salud. Y el tercero es la supervisión de emisiones en directo.
Los tres entrevistados coinciden en señalar que la posición más desgastante es la del primer filtro, donde cada 10, 20 o 50 vídeos puede aparecer una escena macabra que se aferre a la retina y la memoria del moderador. "A mí la primera vez que me pasó tuve que parar e irme fuera a respirar. Me dieron unas dos horas para tranquilizarme. Y luego con la psicóloga hablé un poco del tema. Estuvimos unos meses que ella me preguntaba '¿qué tal?', '¿has pensado en ello?', ‘¿cómo te sientes?’, etc. Pero no se trabajó mucho profundidad", explica Gemma.
En el aplicativo que usan para comunicarse hay una especie de 'botón del pánico' que pueden usar cuando ven un contenido altamente sensible y que les deja tocados. Su nombre es Smiley face. Una vez al mes tienen la obligación de hablar con un psicólogo que les realiza una evaluación rápida y si lo reclaman pueden ampliar las visitas. Las bajas por ansiedad y depresión son habituales entre la plantilla y los tres empleados consultados tienen compañeros de equipo de baja o bien directamente han estado ellos mismos.
Para mí es un trabajo temporal que se ha alargado mucho
La opinión entre la plantilla sobre si estas medidas son suficientes o no para minimizar los efectos traumáticos de un empleo así varían. Gemma, por ejemplo, pondera el sueldo, que puede ampliar si tiene una ratio de acierto en la moderación de más del 90%, y la flexibilidad horaria. También que ella está en una posición menos expuesta a las escenas más violentas. "Es un trabajo temporal que se ha alargado mucho”, resume.
Joshua acabó renunciando, quemado, con la tripa revuelta cada semana cuando se echaba a la cama y sabía que al día siguiente le tocaba volver otra vez a la oficina. Recuerca que con un compañero se referían a la empresa como MajorHell. Aunque más tocado psicológicamente por la fatiga de ver centenares de vídeos cada día que no por la crudeza del contenido. "El psicólogo hacía bien su trabajo, ese no era el problema. Soy una persona ultra creativa y ver cada día tontería tras tontería me mataba por dentro. Me sentía totalmente inútil”, cuenta. Hoy prácticamente no usa ninguna red social.
Ocho horas sin parar de ver contenido que te entra en la cabeza y no se va, que intentas echar y se aferra a tu memoria
Laura es la más crítica. “Ocho horas delante de una pantalla, en tensión constante por si te pasas del tiempo de visionado por vídeo y no llegas al mínimo de vídeos requeridos por día. Entonces te salta la maldita aplicación. Ocho horas sin parar de ver contenido que te entra en la cabeza y no se va, que intentas echar y se aferra a tu memoria… Realizamos un servicio público que no le importa a nadie y nosotros no le importamos a nadie”, cuenta.
La preparación que les da la empresa antes de que empiecen el visionado es una formación de 90 minutos sobre cómo funciona el sistema y cuáles son los temas –Tiktok facilita una lista– que no deben dejar pasar. Majorel afirma que ofrece sesiones grupales para gestionar emociones y problemas derivados de la exposición constante a contenido sensible. También que todos los trabajadores tienen siempre un psicólogo de referencia.
Dos supuestos que la Inspección de Trabajo de la Generalitat de Catalunya no ha podido acreditar. Y es que la autoridad laboral ha determinado que la empresa no adopta las medidas suficientes para proteger la salud de sus trabajadores y tampoco adopta las medidas suficientes para minimizar el riesgo a una exposición prolongada a traumas como los que les moderan. Por ello ha sido sancionada por un importe de 15.000 euros a raíz de denuncias de trabajadores.
- Guardia Civil alerta: 800 euros de multa por comprar en Aliexpress este artículo
- Espeluznante accidente en la TF-5 por la conducción imprudente en forma de zigzag de un conductor
- Encuentran el cuerpo de un hombre sin vida en un barranco en Tenerife
- La Palma atraviesa su periodo con mayor actividad volcánica en 4.000 años
- La primera iglesia ortodoxa canaria, la Sagrada Familia tinerfeña: sin concluir una obra que comenzó hace seis años
- Malestar en el casco de La Laguna con varias procesiones ‘rotas’ durante la Semana Santa
- Un gran espacio de ocio y viviendas accesibles: Santa Cruz licita por 6 millones las obras que transformarán La Salud Alto
- Una vivienda arde en llamas durante la noche en Tenerife