Redes sociais: os horrores enfrentados pelos moderadores de conteúdo
2024-11-17
Autor: Pedro
A rotina angustiante dos moderadores de redes sociais: 'Sacrifico minha saúde mental pelos outros'
Nos últimos meses, a BBC tem investigado um lado obscuro e perturbador das redes sociais, onde o conteúdo mais chocante e ilegal revela atrocidades inimagináveis. Os moderadores de conteúdo, muitas vezes invisíveis para o público, trabalham incansavelmente para manter grupos de usuários a salvo de vídeos de decapitações, assassinatos, abuso infantil e discursos de ódio.
Esse trabalho, essencial mas extremamente traumatizante, geralmente é desempenhado por funcionários de empresas terceirizadas, que analisam trabalhos postados em redes sociais como Instagram, TikTok e Facebook. Apesar das tecnologias avançadas e das pressões para a remoção rápida de conteúdos nocivos, a supervisão humana ainda é fundamental.
Recentemente, conversei com vários ex-moderadores, todos oriundos da África Oriental, que deixaram seus empregos devido aos impactos devastadores na saúde mental. Eles compartilham histórias angustiosas, descrevendo momentos em que foram forçados a testemunhar conteúdo que poderia traumatizar qualquer pessoa. Um ex-moderador, identificando-se como Mojez, revelou: "Enquanto muitos usuários veem vídeos divertidos, eu estava exposto a cenas horríveis, muitas vezes imersas em violência. Eu incumbia essa carga para que as pessoas pudessem continuar a desfrutar de suas experiências online."
Os moderadores lutam contra problemas mentais graves e muitos enfrentam ações judiciais contra as empresas por danos emocionais. Um caso notável foi o de Selena Scola, uma ex-moderadora dos EUA, que primeiro levantou a bandeira para a proteção dos colegas de trabalho. A Meta, anteriormente conhecida como Facebook, pagou um acordo de US$ 52 milhões a moderadores afetados pela natureza do trabalho.
"Todos nós somos 'guardiões de almas', já que assistimos os momentos finais de vidas humanas. O trauma que isso provoca é indescritível", afirma um deles, que relatou dificuldades em viver uma vida normal após a experiência.
Os moderadores se sentem frequentemente como serviços de emergência, com um orgulho imenso em proteger os outros de conteúdos perigosos. Um deles, conhecido como David, expressou: "Eu queria usar um uniforme, como um bombeiro ou um paramédico. Cada segundo que passei nessa função não foi desperdiçado."
No entanto, apesar da dedicação deles, a solução para o problema pode não estar em humanos. Atualmente, tecnologias de inteligência artificial, como a desenvolvida pela OpenAI, estão sendo implementadas para moderar conteúdos em larga escala. Essa ferramenta promete identificar conteúdos prejudiciais com precisão de 90%.
O ex-chefe de confiança da OpenAI, Dave Willner, confirma que as ferramentas AI não conhecem emoções, algo que poderia aliviar um pouco da carga sobre humanos. Contudo, especialistas discutem se a IA pode realmente substituir o julgamento humano, alertando que ela pode ser limitada e incapaz de compreender contextos sutis que os moderadores humanos percebem.
As reações das empresas de tecnologia também estão evoluindo. TikTok e Meta afirmam estar em busca de melhor apoio psicológico e bem-estar para os moderadores, mas muitos ex-moderadores ainda relatam que essas soluções não vão longe o suficiente e que muitas vidas ainda estão em jogo na luta contra um conteúdo ilegal e violento.
Como o mundo das redes sociais continua a se expandir, os moderadores de conteúdo permanecem na linha de frente de uma batalha invisível e terrivelmente aflitiva. Eles nos protegem, carregando o peso do trauma em silência, enquanto a maioria de nós aproveita as alegrias da interação social online.