A proliferação de ferramentas de IA capazes de “despir” pessoas em imagens, principalmente mulheres, segue a todo vapor na internet. Os robôs são impulsionados por redes sociais, das mais às menos rígidas na moderação contra conteúdos nocivos, e entregam o trabalho com poucos cliques.
Entre os casos, a Polícia Civil investiga a adulteração digital de fotografias de 40 pessoas, sendo 36 menores de idade, em Itararé (SP). As imagens teriam sido manipuladas por adolescentes usando ferramentas de inteligência artificial (IA) para simular nudez.
Na operação, a polícia apreendeu oito celulares em buscas nas residências dos suspeitos. Os laudos periciais dos aparelhos estão em elaboração, segundo o órgão, que não divulgou mais detalhes para preservar investigações.
Alguns sistemas impõem restrições, ainda que facilmente burláveis. O usuário deve afirmar que é maior de idade e que não usará fotos de outras pessoas sem consentimento, por exemplo. Os anúncios vão dos mais contidos a mensagens explícitas: “Tire a roupa de qualquer mulher de graça”.
Telegram e X (antigo Twitter), conhecidos por abrigar com poucas sanções conteúdos do tipo, são os campeões de divulgação, mas não os únicos. Aplicativos especializados em despir mulheres veicularam mais de 300 anúncios nas redes sociais da Meta para brasileiros desde o início do ano, e apenas uma parte deles foi derrubada por políticas da empresa.
As opções mais comuns são páginas na internet ou chats automatizados no Telegram para a produção das imagens. O desenvolvedor de software Lucas Lago diz que a persistência desses serviços está ligada à estrutura técnica.
“Eles têm um serviço de IA que entrega as imagens para um robô de Telegram. Quando derrubam um robô, os criminosos só precisam criar um novo, alimentado pelo mesmo serviço original. É praticamente impossível rastrear a origem”, diz.
Modelos de criação dessas imagens podem ser instalados e treinados em máquinas particulares, driblando as restrições impostas por empresas de IA que proíbem a produção de conteúdos com nudez, segundo Lago.
No Brasil, é possível punir quem cria as imagens baseando-se em crimes que já existiam antes mesmo do âmbito virtual, como calúnia e difamação, mas a lei brasileira ainda não tem consequência específica para a produção de deepfakes.
Há dois projetos de lei no Congresso, um de autoria do senador Chico Rodrigues (PSB-RR) e outro da deputada federal Jandira Feghali (PCdoB-RJ), que tratam desse tipo específico de tecnologia.
O TSE (Tribunal Superior Eleitoral) definiu a regulação do uso da inteligência artificial nos contextos eleitorais e a vedação absoluta de uso de deepfake na propaganda eleitoral para as eleições de 2024. Mas o país ainda não estabeleceu punição para quem produz a tecnologia em si, segundo Tainá Junquilho, advogada e professora de direito e tecnologia no IDP.
“Todas as redes sociais já fazem controle de conteúdo de acordo com seus termos de uso. Mas, sem uma regulação que atribua o dever de integridade da informação e transparência às plataformas, cada uma faz como quer. Muitos conteúdos são derrubados sem explicações, incluindo alguns válidos, enquanto outros claramente criminosos permanecem online”, diz Junquilho.
O Marco Civil da Internet estabelece que as plataformas digitais não são obrigadas a remover conteúdos sem uma ordem judicial específica, exceto em situações que envolvam nudez ou atos sexuais privados divulgados sem autorização.
Ainda assim, a regulação não dá conta de obrigar as plataformas a tratar casos de uso indevido de IA de maneira generalizada, na visão de especialistas. A regulação da IA no Brasil está em discussão no legislativo, mas projetos de lei mais avançados sobre o tema, como o 2338/2023, esperam para entrar em pauta novamente após adiamentos sucessivos.
Em nota, a SSP (Secretaria de Segurança Pública de São Paulo) orienta vítimas desse tipo de situação a procurar uma delegacia.
“Essa ação permite que os casos sejam devidamente investigados e os autores presos. Especificamente para combater crimes eletrônicos envolvendo alta tecnologia e crime organizado, incluindo aqueles praticados por meio de redes sociais, São Paulo conta a Divisão de Crimes Cibernéticos (DCCIBER), do Departamento Estadual de Investigações Criminais (Deic)”, diz o órgão.
A Meta afirmou que revisa conteúdo com IA e equipes humanas para remover conteúdos que violem políticas da plataforma.
“Estamos sempre aprimorando nossos esforços para manter nossas plataformas seguras e também incentivamos as pessoas a denunciarem conteúdos e contas que acreditem violar nossas políticas através das ferramentas disponíveis dentro dos próprios aplicativos”, diz a empresa.
Já o Telegram respondeu que usuários da rede social podem denunciar conteúdos do tipo.
“Embora os moderadores já removam milhões de peças de conteúdo prejudicial todos os dias, fortalecer ainda mais a moderação do Telegram é a principal prioridade para 2024. Além disso, o Telegram lançou recentemente o bot @searchReport, permitindo que os usuários denunciem termos de pesquisa que podem localizar conteúdo prejudicial no Telegram”, afirma a rede.
O X não se manifestou.
Embora esses serviços tenham caráter intencional, o viés de exploração sexual de mulheres é velho conhecido dos sistemas de IA. A principal explicação é a de que modelos são abastecidos com dados que refletem estereótipos da sociedade e não são treinados o suficiente para corrigir as distorções.
A designer de produtos Elizabeth Laraki, que já trabalhou em empresas como Google, YouTube e Facebook, relatou no dia 15 de outubro que uma ferramenta de IA alterou indevidamente sua foto promocional para uma conferência, expondo mais seu colo.
“Alguém editou minha foto para desabotoar minha blusa e revelar um suposto sutiã ou algo por baixo”, escreveu Laraki no X. “Imediatamente, enviei um e-mail ao organizador da conferência.”
Segundo Laraki, os organizadores da conferência Upscale responderam explicando que a pessoa responsável pelas mídias sociais usou uma ferramenta de IA para expandir verticalmente uma imagem quadrada retirada do site. A IA “inventou” a parte inferior da imagem, desabotoando a blusa da palestrante. Os organizadores se desculparam e removeram todo o conteúdo com a foto alterada, de acordo com Laraki.
A Folha tentou contato com a organização da conferência, mas, até a publicação deste texto, não obteve resposta.