Por Avi Asher -Schapiro
LOS ANGELES (Fundação Thomson Reuters) – A Meta — proprietária do Facebook (NASDAQ:) e do Instagram — enfrenta dificuldades para conter e lidar totalmente com o discurso de ódio antes das eleições nos Estados Unidos, de acordo com uma pesquisa compartilhada exclusivamente com a Thomson Reuters Foundation.
A organização sem fins lucrativos Global Witness testou como o Facebook está lidando com o discurso de ódio antes da votação presidencial, analisando 200.000 comentários nas páginas de 67 candidatos ao Senado dos EUA entre 6 de setembro e 6 de outubro.
Quando os pesquisadores da Global Witness usaram a ferramenta de denúncia do Facebook para sinalizar 14 comentários que consideraram violações especialmente graves das regras de discurso de ódio da Meta em seus “padrões de comunidade”, a Meta levou dias para reagir.
Os comentários sinalizados pelos pesquisadores — alerta: contém linguagem ofensiva — referiam-se a muçulmanos como uma “praga”, a judeus como “consanguíneos e parasitas” e chamavam uma candidata política de “porca lésbica”.
A Meta removeu alguns, mas não todos, dos 14 comentários do Facebook após a Global Witness enviar um email diretamente à empresa, disseram os pesquisadores.
“Houve uma falha real na revisão imediata dessas publicações”, disse Ellen Judson, pesquisadora da Global Witness que supervisionou o teste.
As conclusões chegam no momento em que a Meta enfrenta críticas de longa data de pesquisadores, grupos de supervisão e parlamentares por não promover um ecossistema de informações saudável durante eleições em todo o mundo.
Ainda em abril, a Comissão Europeia abriu uma investigação para avaliar se a Meta pode ter violado as regras de conteúdo online da União Europeia antes das eleições para o Parlamento Europeu.
Judson disse que a forma como o Facebook tratou os comentários sinalizados pela Global Witness aponta para uma falha em como a plataforma lidas com discurso de ódio.
Em um email, um porta-voz da Meta disse que o trabalho da Global Witness foi “baseado em uma pequena amostra de comentários e removemos aqueles que violavam nossas políticas”.
“Isso não reflete o trabalho que nossas equipes — incluindo as 40.000 pessoas que trabalham com segurança e proteção — estão fazendo para manter nossa plataforma segura antes das eleições”, disse o porta-voz.
Segundo os padrões de comunidade do Facebook, conteúdo que “ataca indivíduos com base em sua raça, etnia, nacionalidade, sexo, gênero, identidade de gênero, orientação sexual, afiliação religiosa, deficiências ou doenças é considerado uma violação”.
Embora não esteja claro quantos usuários foram expostos ao discurso de ódio, Judson disse que o impacto pode ser grande.
“O abuso online pode ter um impacto psicológico negativo e fazer com que as pessoas reconsiderem sua participação na política. Para observadores externos, se deparar com esse tipo de discurso talvez dê a impressão de que esse não é um lugar para mim”, disse.
“Uma pequena quantidade de abuso ainda pode causar muitos danos.”
(Reportagem de Avi Asher-Schapiro)