Mais de 140 Facebook Os moderadores de conteúdo foram diagnosticados com transtorno de estresse pós-traumático grave causado pela exposição a conteúdo gráfico de mídia social, incluindo assassinatos, suicídios, abuso sexual infantil e terrorismo.
Os moderadores trabalhavam de oito a dez horas por dia em uma instalação em Quênia para uma empresa contratada pela empresa de mídia social e o Dr. Ian Kanyanya, chefe dos serviços de saúde mental do Hospital Nacional Kenyatta em Nairóbi, descobriu que sofria de transtorno de estresse pós-traumático, transtorno de ansiedade generalizada (TAG) e transtorno depressivo maior (TDM). ).
Os diagnósticos em massa foram realizados como parte de uma ação judicial movida contra a empresa-mãe do Facebook, Meta, e a Samasource Kenya, uma empresa terceirizada que realizava moderação de conteúdo para Meta usando trabalhadores de todo o mundo. África.
Imagens e vídeos que incluíam necrofilia, bestialidade e automutilação fizeram com que alguns moderadores desmaiassem, vomitassem, gritassem e fugissem de suas mesas, alegam os documentos.
O caso está a lançar luz sobre o custo humano do aumento da utilização das redes sociais nos últimos anos, o que tem exigido cada vez mais contenção, muitas vezes em algumas das partes mais pobres do mundo, para proteger os utilizadores do pior material que algumas pessoas publicam.
Pelo menos 40 dos moderadores do caso abusaram de álcool, drogas como cannabis, cocaína e anfetaminas, e medicamentos como pílulas para dormir. Alguns relataram a ruptura do casamento e um colapso no desejo de intimidade sexual, e uma perda de ligação com as suas famílias. Alguns cujo trabalho era remover vídeos carregados por grupos terroristas e rebeldes temiam que fossem vigiados e atacados e que, se regressassem a casa, fossem caçados e mortos.
O Facebook e outras grandes empresas de mídia social e IA contam com exércitos de moderadores de conteúdo para remover postagens que violam os padrões de sua comunidade e treinar sistemas de IA para fazer o mesmo.
Os moderadores no Quénia e noutros países africanos foram encarregados, entre 2019 e 2023, de verificar as mensagens provenientes de África e nas suas próprias línguas, mas receberam oito vezes menos do que os seus homólogos nos EUA, de acordo com os documentos da reivindicação.
Os relatórios médicos apresentados ao tribunal de emprego e relações laborais de Nairobi e vistos pelo The Guardian pintam um quadro horrível da vida profissional dentro de instalações contratadas pela Meta, onde os trabalhadores recebiam um fluxo constante de imagens para verificar num espaço frio semelhante a um armazém. sob luzes fortes e com sua atividade de trabalho monitorada minuto a minuto.
Quase 190 moderadores estão apresentando uma reclamação multifacetada que inclui alegações de inflição intencional de danos mentais, práticas trabalhistas injustas, tráfico de pessoas e escravidão moderna, além de demissões ilegais. Descobriu-se que os 144 examinados por Kanyanya tinham TEPT, TAG e TDM com sintomas de TEPT graves ou extremamente graves em 81% dos casos, principalmente pelo menos um ano após sua partida.
Meta e Samasource se recusaram a comentar as reivindicações devido ao litígio.
Martha Dark, fundadora e co-presidente-executiva da Foxglove, uma organização sem fins lucrativos com sede no Reino Unido que apoiou o processo judicial, disse: “A evidência é indiscutível: moderar o Facebook é um trabalho perigoso que inflige transtorno de estresse pós-traumático por toda a vida a quase todos aqueles que moderam. ele.
“No Quénia, traumatizou 100% das centenas de antigos moderadores testados para PTSD… Em qualquer outra indústria, se descobríssemos que 100% dos trabalhadores de segurança estavam a ser diagnosticados com uma doença causada pelo seu trabalho, as pessoas responsáveis seriam forçadas a renunciar e enfrentar as consequências jurídicas das violações massivas dos direitos das pessoas. “É por isso que a Dedaleira apoia esses bravos trabalhadores na busca de justiça nos tribunais.”
De acordo com documentos apresentados no caso de Nairobi, Kanyanya concluiu que a principal causa dos problemas de saúde mental entre as 144 pessoas era o seu trabalho como moderadores de conteúdo do Facebook, uma vez que “encontravam diariamente conteúdo extremamente gráfico, incluindo vídeos de assassinatos horríveis, automutilação, suicídios, tentativas de suicídio, violência sexual, conteúdo sexual explícito, abuso físico e sexual infantil, ações violentas horríveis, só para citar alguns.”
Quatro dos moderadores sofriam de tripofobia, aversão ou medo de padrões repetitivos de pequenos buracos ou saliências que podem causar intensa ansiedade. Para alguns, a condição se desenvolveu ao ver buracos em corpos em decomposição enquanto trabalhavam no conteúdo do Facebook.
A moderação e a tarefa relacionada de marcar conteúdo são muitas vezes partes ocultas do boom tecnológico. Arranjos semelhantes, mas menos traumáticos, são feitos para que os trabalhadores contratados marquem grandes quantidades de imagens de coisas mundanas, como mobiliário urbano, salas de estar e cenas de estradas, para que os sistemas de inteligência artificial concebidos na Califórnia saibam o que estão a ver.
Meta disse que levava a sério o apoio dos revisores de conteúdo. Contratos com moderadores de conteúdo terceirizados no Facebook e Instagram Expectativas detalhadas para aconselhamento, formação, apoio no local 24 horas por dia e acesso a cuidados de saúde privados. A Meta disse que o pagamento estava acima dos padrões da indústria nos mercados onde operava e usou técnicas como desfoque, silenciamento de sons e renderização monocromática para limitar a exposição à arte para as pessoas que analisavam o conteúdo nas duas plataformas.