jueves 12 junio 2025 / 4:11
El Politico

DONDE LAS IDEAS SE ENCUENTRAN

Sin resultados
Ver todos los resultados
  • Estados Unidos
  • Latinoamérica
  • Mundo
  • Economía
  • Cultura
  • Ideas
El Politico
Sin resultados
Ver todos los resultados
Trending
  • Trumpworld
  • Fraude en Venezuela
  • Efecto Milei
  • Guerra Israel

El lado oscuro de Meta: los horrores humanos que se encuentran en redes sociales

El trabajador solicitó permanecer en el anonimato debido a los estrictos contratos de confidencialidad a los que está sujeto

C. C Por C. C
26/01/2024
en Cultura
El lado oscuro de Meta: los horrores humanos que se encuentran en redes sociales

Torre Glòries de Barcelona, ​​donde se encuentran las oficinas de moderación de contenido (Foto cortesía)

Testimonio de un trabajador revela las duras condiciones a las que se enfrentan los moderadores de contenido de meta, expuestos a violencia y perturbaciones constantes.

El Político

El trabajador solicitó permanecer en el anonimato debido a los estrictos contratos de confidencialidad a los que está sujeto. Él comentó que después de tener que ver repetidamente varios vídeos sobre suicidios, asesinatos, desmembramientos y violaciones, tuvo un ataque de pánico y pidió ayuda.

Este empleado, que trabajó como moderador de contenidos en una empresa que brinda servicios a Meta propietaria de Facebook, Instagram y WhatsApp, le dijeron que fuera al piso divertido (fun Floor) una gran sala de juegos ubicada en uno de los pisos de la torre Glòries de Barcelona, donde se encuentran las oficinas de moderación de contenidos del gigante tecnológico.

Comapañia Meta (Foto cortesía)

Cuando comenzó en la empresa, no estaba al tanto de la violencia de los videos que tendría que moderar. Según el abogado, el trabajo está bien remunerado (con un salario bruto de unos 2.400 euros al mes), no requiere experiencia ni formación específica, lo que atrae a jóvenes extranjeros.

Sin embargo, el trabajador afectado menciona que estas ilusiones pronto se desvanecen una vez se enfrentan a la realidad de su labor.

Los moderadores de contenido se encargan de que el muro y las publicaciones en Facebook e Instagram se mantengan limpios y pacíficos para los usuarios. Su tarea implica filtrar noticias falsas y fotos que no cumplan con las políticas de Meta. No obstante, también se enfrentan a contenido violento, teniendo que evaluarlo, censurarlo e incluso reportarlo a las autoridades.

Este empleado comenzó su trayectoria en 2018 y se mantuvo en la empresa hasta 2020, año en el que tomó una baja médica debido a sus problemas de salud mental. Tanto la empresa como la compañía de seguros categorizaron su condición como una "enfermedad común", lo que llevó a que se presentara una demanda.

El pasado 12 de enero el Juzgado de lo Social 28 de Barcelona desestimó la demanda de la empresa y resolvió que la baja debe calificarse como accidente de trabajo. Es la primera sentencia que reconoce que la enfermedad mental que sufre un moderador de contenidos está provocada por su trabajo. "El estrés laboral es el único, exclusivo e indudable desencadenante" de los trastornos, señala la sentencia, que es recurrible.

Por su parte el trabajador afectado señaló que “la gente no es en absoluto consciente de lo que está pasando. Antes de trabajar allí te aseguro que no sabía de qué éramos capaces los humanos”.

Entrenamiento de la inteligencia artificial

Algunos moderadores consideran que están siendo utilizados para entrenar inteligencia artificial, ya que algunos de ellos eran asignados a revisar contenido de alta prioridad, principalmente aquellos que mostraban actos violentos, incluyendo suicidios y actos terroristas.

Francesc Feliu, socio del despacho de abogados Espacio Jurídico Feliu Fins, especializado en materia de salud, explicó que los moderadores de contenidos más eficientes, evaluados mensualmente, tienen acceso a una sección de alta prioridad. Por un canal seguían recibiendo videos de diversos temas, incluyendo publicaciones normales y violentas.

El empleado le comentó "ver esto constantemente te hace más sensible a todo. Después de un tiempo, ni siquiera podía ver una carta de suicidio".

A su vez indicó que debían seguir estrictamente la política de Meta y, en muchas ocasiones, ver los videos hasta el final varias veces, siendo revisados por diferentes moderadores. Por ejemplo, si había un video en vivo de alguien hablando sobre su deseo de suicidarse, debían seguir mirándolo y no podían eliminarlo o informar a la policía a menos que notaran signos evidentes de suicidio en la escena, como una pistola o una ventana abierta. A menudo, sucedía que la persona se disparaba repentinamente sin que ellos pudieran hacer nada al respecto, lo cual Feliu lamenta.

Moderadores de contenido (Foto cortesía)

Asimismo dijo que para eliminar un video, debían detallar cuidadosamente la decisión, utilizando una escala según la gravedad de los eventos mostrados. Si el video comenzaba con algún tipo de violencia, debían esperar para ver si ocurrieran cosas más graves, como asesinato, desmembramiento o abuso sexual, para calificarlo según lo más grave. Si la violencia más grave ocurría al principio, el sistema permitiría eliminar el video.

Este procedimiento llevó a sospechar a los moderadores. Por lo que Feliu afirmó "si en los primeros 10 segundos ya se ve que algo es violento, ¿por qué hay que esperar? Llegamos a la conclusión de que lo que están haciendo es entrenar a la inteligencia artificial (IA), somos carne de cañón".

En la empresa, trabajan alrededor de 2,000 personas, aunque el año pasado se redujo la plantilla de la subcontrata debido a recortes en Meta.

La compañía lleva diversas acciones para minimizar el impacto en la salud mental de sus empleados. Sin embargo, incluso con estas medidas el trabajador relata que las condiciones laborales que enfrentaba no eran idóneas.

Tags: Destacadometa
Newsletter


Contenido relacionado

Esto es todo lo que hay que saber hasta el momento sobre las protestas anti-ICE en Los Ángeles

Esto es todo lo que hay que saber hasta el momento sobre las protestas anti-ICE en Los Ángeles

10/06/2025
Marines en Los Ángeles: Entre la protección federal y la tensión social

Marines en Los Ángeles: Entre la protección federal y la tensión social

10/06/2025
Exclusiva ‘JTN’: el director del FBI, Kash Patel, asegura estar investigando la financiación de los disturbios anti-ICE

Exclusiva ‘JTN’: el director del FBI, Kash Patel, asegura estar investigando la financiación de los disturbios anti-ICE

10/06/2025
Mayoría de los votantes aprueba el programa de deportación de Trump, según encuesta de CBS News

Mayoría de los votantes aprueba el programa de deportación de Trump, según encuesta de CBS News

10/06/2025
La UE añade a Venezuela y Mónaco a lista de países de "Alto Riesgo" sobre lavado de activos

La UE añade a Venezuela y Mónaco a lista de países de "Alto Riesgo" sobre lavado de activos

10/06/2025
Bloomberg en línea: Venezuela se prepara para subir 50% el precio de la gasolina tras salida de Chevron

Bloomberg en línea: Venezuela se prepara para subir 50% el precio de la gasolina tras salida de Chevron

10/06/2025
Proximo Post
Donald Trump es condenado a pagar 83,3 millones de dólares por "difamación"

Donald Trump es condenado a pagar 83,3 millones de dólares por "difamación"

Loading...

Síganos en sus redes favoritas

Facebook
Twitter
Instagram
Telegram


Newsletter


El Politico

DONDE LAS IDEAS SE ENCUENTRAN

© Copyright 2019. "El Político" by El Político. All rights reserved.

Sin resultados
Ver todos los resultados
  • Estados Unidos
  • Latinoamérica
  • Mundo
  • Economía
  • Cultura
  • Ideas

© Copyright 2019. "El Político" by El Político. All rights reserved.