Ferramentas de inteligência artificial facilitam a produção de materiais de abuso e exploração sexual de crianças e adolescentes. Esse conteúdo é conhecido como CSAM, sigla em inglês para “child sexual abuse material”.
A IWF (Internet Watch Foundation), organização inglesa de proteção à criança, encontrou mais de 3.500 imagens de abuso sexual infantojuvenil produzidas com IA em um único fórum online em março.
No estudo, a IWF mostrou a severidade das imagens de abuso produzidas com IA: 32% do material encontrado continha penetração, bestialidade ou sadismo. Além disso, foram descobertos os primeiros vídeos de CSAM criados com IA.
Imagens de atividades sexuais sem penetração, como sexo oral e masturbação, compreendiam 22% do conjunto encontrado. Os outros 46% não exibiam atividade sexual, mas ainda configuravam abuso, sendo mais comum exibirem cenas de nudez.
A maior parte das vítimas representadas nas imagens eram crianças de 11 a 13 anos (48%) e de 7 a 10 anos (34%), sendo 99% do sexo feminino.
A verossimilhança desses materiais assustou a IWF, pois 90% das imagens geradas por IA eram tão realistas que podiam ser confundidas com material real. Uma outra parte é intencionalmente gerada para não parecer realista: simulam desenhos e animações.
Em 2023, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês), que atua nos EUA, recebeu 36,2 milhões de denúncias de abuso e exploração sexual infantojuvenil na internet oriundas do mundo todo. Desse total, 4.700 envolviam CSAM produzido com inteligência artificial.
Embora seja uma parcela pequena do total de denúncias, há um consenso entre especialistas de que a presença de material criado com IA deve crescer exponencialmente.
No Brasil, o número de páginas online denunciadas por conterem CSAM atingiu o maior patamar em 18 anos. Dados da Central Nacional de Denúncias de Crimes Cibernéticos da Safernet, organização de defesa dos direitos humanos na internet, apontam que 7 em cada 10 denúncias de crimes cibernéticos envolviam CSAM. Foram mais de 71 mil casos em 2023, um crescimento de 77% em relação a 2022.
Como explica Thiago Tavares, diretor-presidente da Safernet, o volume de CSAM na “clear web” (parte da internet que é acessível por mecanismos de busca) tornou-se preponderante. “As redes sociais são usadas como vitrines para anúncio e venda de materiais [de abuso sexual infantojuvenil], que são veiculados nos aplicativos de troca de mensagens.”
Só em 2023, a Meta removeu 3,6 milhões de imagens e vídeos de abuso sexual de crianças e adolescentes, identificados nos serviços de mensagens privadas do Facebook e do Instagram. O X (antigo Twitter) removeu 12,4 milhões de contas, enquanto o TikTok baniu 522 mil usuários.
Ana Cláudia Cifali, coordenadora jurídica do Instituto Alana e conselheira do Conanda (Conselho Nacional dos Direitos da Criança e do Adolescente) diz que é necessário “ter maior comprometimento e responsabilização das plataformas no combate
ao abuso sexual”.
“Os criminosos se sentem à vontade nesses ambientes pela dificuldade de investigação. Eles sabem quais plataformas não colaboram com a polícia”, explica Jorge Barreto, investigador da Unidade de Inteligência Policial do Departamento de Polícia Judiciária de São Paulo Interior (Deinter) 5, em São José do Rio Preto (SP).
Embora ainda não haja dados sobre o volume de CSAM produzido com inteligência artificial no Brasil, Tavares alerta: “É muito barato produzir imagem de abuso sexual infantil com IA. E tem gente disposta a pagar por esse material. É questão de tempo para que isso seja explorado por organizações criminosas”.
Há softwares e sites que usam fotografias comuns para simular imagens de nudez (“nudifying”). Essas ferramentas têm sido usadas por adolescentes em práticas de cyberbullying em escolas. No ano passado, estudantes do Colégio Santo Agostinho, no Rio de Janeiro, tiveram suas fotos alteradas com IA por colegas para aparecerem nuas. Em agosto, alunas do Colégio Uirapuru, em Sorocaba, também foram vítimas.
Mas o uso dessas ferramentas não se restringe ao cyberbullying. Abusadores podem modificar imagens para extorquir as vítimas, exigindo dinheiro ou a produção de conteúdos reais de abuso. Nesse caso, artistas mirins e antigas vítimas de CSAM são mais vulneráveis pela disponibilidade de imagens suas ao alcance dos criminosos.
“Não consigo imaginar nenhum benefício em ferramentas cujo único propósito seja criar nudes sem consentimento das vítimas”, afirma Tavares.
Outra possibilidade de uso da inteligência artificial é a geração de imagens por comandos de texto. Uma vez treinadas com materiais pornográficos ou de abuso sexual infantojuvenil, a IA generativa pode tornar os limites da produção de CSAM imprevisíveis.
Segundo Barreto, que atua há mais de dez anos no combate ao abuso infantojuvenil online, a dinâmica desse tipo de crime é muito heterogênea. Por isso, não há um roteiro definido para conduzir as investigações.
Nas redes sociais, a investigação da Polícia Civil de São Paulo é feita por ronda virtual e infiltração em comunidades de abusadores, com eventual interação com os criminosos. Os profissionais precisam ter conhecimento aprofundado e experiência.
Barreto treinou 500 policiais civis em todo o país, mas afirma que só 120 agentes estariam na ativa, 20 deles capacitados para fazer análise avançada de modificação e produção de CSAM. “A rotatividade de profissionais é muito alta. É difícil se manter nessa atuação, sobretudo por questões de saúde mental”.
A Polícia Federal desenvolveu o Sistema Rapina em 2022, em parceria com a UFMG (Universidade Federal de Minas Gerais) e a Unicamp (Universidade Estadual de Campinas). O software utiliza IA para identificar materiais de abuso sexual infantojuvenil.