Ir al contenido principal

Facebook es denunciado por los moderadores a los que forzó a ver “imágenes y videos horribles”

Alegan tener “estrés postraumático” por ser bombardeados diariamente con miles de videos de violaciones, asesinatos y tortura.

Los moderadores de Facebook, responsables de ver y eliminar una enorme cantidad de imágenes y videos "horribles y ofensivos", presentaron una demanda contra el gigante de las redes sociales por exponerlos a sufrir "traumas psicológicos y trastornos de estrés postraumático" y no ser protegidos adecuadamente por la empresa.

Así lo comunicó el estudio de abogados Burns Charest LLP, que presentó una demanda colectiva en California en nombre de Selena Scola, una ex moderadora de la red social que trabajó en las oficinas de Facebook durante nueve meses contratada de forma tercerizada por otra empresa.

En el escrito, alegan que los moderadores de contenido de Facebook son bombardeados diariamente con miles de "videos, imágenes y transmisiones en vivo de abuso sexual infantil, violación, tortura, bestialidad, decapitaciones, suicidios y asesinatos".
"Está bien documentado que la exposición repetida a tales imágenes puede tener un efecto profundamente negativo en el espectador", afirmó Korey Nelson, abogada de Burns Charest LLP. "Facebook está ignorando su deber de proporcionar un lugar de trabajo seguro y, en su lugar, crea una puerta giratoria de subcontratados que están irreparablemente traumatizados por lo que presenciaron en el trabajo", agregó.

"Facebook tiene la obligación de proporcionar a sus moderadores de contenido un lugar de trabajo seguro", dijo el jurista William Most. "Otras compañías tecnológicas implementan protecciones para mitigar el trauma de los moderadores de contenido. Facebook debe mantenerse con el mismo estándar", observó.

La demanda colectiva propuesta alega "negligencia" y fallas en proveer un lugar de trabajo seguro. 

"Nuestro cliente le está pidiendo a Facebook que establezca un fondo de monitoreo médico para proporcionar pruebas y atención a los moderadores de contenido con trastorno de estrés postraumático", detalló Steve Williams de la firma de abogados Joseph Saveri. "Facebook necesita mitigar el daño a los moderadores de contenido hoy en día y también cuidar a las personas que ya han sido traumatizadas", remarcó.

Según la presentación, Scola comenzó a trabajar como moderadora de contenido de Facebook en junio de 2017 y fue diagnosticada formalmente con trastorno de estrés postraumático después de experimentar síntomas que incluyen fatiga, insomnio y ansiedad social.

Cómo se moderan los contenidos en Facebook

Facebook recibe millones de reclamos de contenido potencialmente cuestionable cada día.

Para determinar las medidas a implementar en cada caso, la red social diferencia a los malos actores (cuentas falsas, hackers) de los malos comportamientos (sensacionalismo, manipulación) y del contenido malo (noticias falsas, discursos de odio, violencia).

Las opciones son tres: eliminar la publicación en los casos más extremos, reducir su difusión mediante algoritmos (patrones preestablecidos) o advertir a los usuarios.

La red social afirma que sólo en el primer trimestre del año removieron 1.8 millones de publicaciones relacionadas a terrorismo, 2.4 millones de posteos con discursos de odio, 838 millones de elementos de spam y 583 millones de cuentas falsas en todo el mundo, gran parte de ellas antes de que fueran reportadas por los usuarios. Así y todo, la complejidad de la situación plantea desafíos y acciones a cada instante.

En una publicación de su blog en julio, la empresa fundada por Mark Zuckerberg destacó que revisar el contenido reportado es "esencial para mantener a las personas seguras en Facebook" y dijo que duplicó el número de personas que trabajan en sus equipos de seguridad este año a 20.000, incluyendo 7.500 revisores de contenido.

"Reconocemos que este trabajo a menudo puede ser difícil. Es por eso que tomamos el apoyo de nuestros moderadores de contenido de manera increíblemente seria", sostuvo Bertie Thomson, directora de comunicaciones corporativas de Facebook, y agregó que a cada persona que revisa el contenido se le ofrece apoyo psicológico.

Comentarios

Entradas más populares de este blog

"Away", la primera película animada que realizó Gints Zilbalodis

Away , que en letón se llamó "Projām" es una película animada sin diálogos de 2019 dirigida y animada por Gints Zilbalodis , quien también escribió el guion y compuso la banda sonora. Está animada utilizando el programa informático Maya. Zilbalodis tardó unos tres años y medio en realizar este nítido y fascinante largometraje animado de 75 minutos sobre un joven que cae de un avión con un paracaídas y aterriza en una isla habitada por pájaros, tortugas y gatos amigables, pero también por un monstruo de sombra gigante cuyo toque mata instantáneamente toda forma de vida. Afortunadamente, el héroe sin nombre encuentra una motocicleta y emprende un viaje a través del extraño paisaje volcánico, logrando mantenerse siempre unos pocos metros por delante del monstruo. Mira el trailer aquí .

Por primera vez Justin Baldoni se refiere al conflicto con Blake Lively

“Estamos agradecidos de estar con la familia, hombre. Tenemos amigos y familia increíbles, y mucha fe” , le dijo Baldoni al reportero de TMZ a su llegada a Los Angeles.

Te dejamos algunos datos curiosos de "Flow", la Mejor Película Animada de los Oscar 2025

Flow fue realizada con Blender, un software gratuito de código abierto, su director Gints Zilbalodis tenía una gatita llamada Josefine, que al igual que en Flow tenía el pelo negro. En un inicio Zibalodis se inspiró en ella para hacer un cortometraje sobre un gato que le temía al agua, y esta idea evolucionó hasta la película que conocemos. Flow esta repleta de simbolismos, el gato negro simboliza el miedo al cambio, el perro refleja confianza y el capibara representa calma y aceptación. Estos elementos dan profundidad emocional a la trama, a pesar de no contar con diálogo. Es la primera vez que Letonia se lleva un Oscar por una película.