Aplicativo de mensagens mais usado no Brasil, o WhatsApp informou à Folha que baniu em média 300 mil contas por mês em todo o mundo em 2024 por suspeitas de compartilhamento de imagens de exploração e abuso sexual infantil.
De acordo com a Meta, gigante de tecnologia dona do aplicativo, o WhatsApp reporta conteúdos e contas para o Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês), que transmite essas informações para autoridades policiais de todo o mundo.
E afirma ter equipe dedicada à prevenção de exploração e abuso infantojuvenil que atua de maneira proativa, além de solicitar aos usuários que denunciem conteúdos problemáticos direto no aplicativo, por meio da opção denunciar do menu.
Aplicativos, redes sociais e plataformas usadas por criminosos para aliciamento de crianças e adolescentes, extorsão sexual online e compartilhamento de materiais de exploração e abuso sexual infantojuvenil estão na mira de especialistas em segurança na internet, que apontam falhas, falta de investimento em moderação de conteúdo e prevenção de crimes online contra crianças e adolescentes, além de pouca transparência sobre os resultados de suas ações neste campo.
Um relatório da Safernet Brasil lançado no final de outubro apontou que mais de 1,25 milhão de usuários do aplicativo de mensagens Telegram no Brasil estão em grupos que vendem e compartilham material de abuso sexual infantil. O aplicativo tem mais de 900 milhões de usuários no mundo.
Entre os apps de mensagem, o Telegram lidera em número de denúncias sobre compartilhamento de imagens de abuso sexual infantil feitas à Safernet Brasil, ONG que atua na prevenção e combate a crimes cometidos nos meios digitais.
O relatório surgiu a partir das denúncias de mais de 800 links feitas por usuários à Safernet no primeiro semestre de 2024. Ao investigar os links denunciados, a ONG descobriu que 149 deles (17% do total) seguiam ativos entre julho e setembro deste ano, sem terem sofrido qualquer tipo de restrição pela plataforma.
O relatório foi entregue à Procuradoria Regional dos Direitos do Cidadão do Ministério Público Federal em São Paulo. Procurado, o Telegram informou, por nota, que publica relatórios diários sobre seus esforços para erradicar materiais de abuso sexual infantil e que removeu, só em outubro deste ano, mais de 48 mil grupos e canais relacionados a esses crimes. “Centenas de moderadores profissionais removem milhões de conteúdos com o auxílio de IA, aprendizado de máquina e detecção baseada em hashtags”, informou.
“Existe uma grande assimetria técnica, econômica e de recursos humanos entre as diferentes plataformas para a moderação de conteúdos em seus ambientes”, explica Thiago Tavares, presidente da Safernet Brasil.
A moderação de conteúdo é a forma como mensagens e imagens problemáticas ou criminosas são identificadas pelas plataformas e apps.
Segundo Tavares, os arranjos mais comuns de moderação de conteúdo incluem desde empresas que desenvolvem suas políticas e moderam conteúdo com equipe própria até aquelas sem políticas consistentes e nas quais a moderação é precária ou mesmo inexistente, passando por empresas que terceirizam essa moderação ou que a transferem para comunidades de usuários.
O Discord é uma das plataformas que investem em capacitação de moderadores de comunidades ao mesmo tempo em que afirma ter ferramentas automatizadas de busca que analisam fotos e vídeos para encontrar conteúdos criminosos, que levam ao banimento permanente de contas.
A plataforma não permite contas de crianças com menos de 13 anos e tem um programa de assistência à segurança do adolescente com recursos como filtros de conteúdos sensíveis e alertas de segurança quando o usuário recebe mensagens diretas de um adulto pela primeira vez.
O Discord também desenvolveu uma ferramenta de supervisão parental que permite a pais e responsáveis monitorar as atividades e interações dos filhos.
O Instagram, que também não permite contas para menores de 13 anos, criou um tipo de conta específico para adolescentes com menos de 18 anos com restrições a mensagens apenas de quem a conta segue e proteção contra nudez nas mensagens diretas, além de permitir limitar o tempo em que a conta fica online. Quem tem menos de 16 anos precisa da permissão dos pais para alterar as configurações-padrão da conta.
Já o TikTok, que também proíbe contas para menores de 13 anos, informa ter ferramentas específicas de proteção dos usuários de 13 a 17 anos. Suas contas-padrão são privadas e restringem a navegação, as mensagens diretas e os comentários.
Segundo o aplicativo, entre janeiro e março de 2024 foram removidos 8.551 vídeos que infringiram as diretrizes do TikTok relacionadas à segurança de adolescentes —88% das remoções, segundo nota, ocorreram menos de 24 horas após a publicação do material.
Procurada para informar sobre sua política de moderação de conteúdo e proteção de usuários menores de 18 anos, a rede social X não respondeu até a conclusão desta edição.
A Meta informou ainda que o Take it Down, uma plataforma que busca evitar que imagens íntimas de jovens menores de 18 anos sejam divulgadas na internet, apoiada pela big tech, incluiu o português do Brasil em seu acervo de 15 idiomas, o que pode ajudar adolescentes brasileiros a recuperarem o controle sobre suas imagens íntimas online.