A inteligência artificial de Elon Musk, Grok, reproduz aparências de políticos e celebridades sem qualquer salvaguarda contra deepfakes —imagens falsas ultrarrealistas, conhecidas por figurarem em vídeos humorísticos, campanhas de manipulação eleitoral e golpes na internet.
Os principais concorrentes do Grok têm políticas para limitar a prática, chamada no jargão, de “roubo de identidade”. O ChatGPT e a MetaAI se negam a copiar aparências, enquanto o Gemini do Google e o Claude da Anthropic não trabalham com ilustrações.
Criado para subverter o politicamente correto da concorrência, de acordo com Musk, o Grok ficava restrito aos assinantes do X Premium, que custa a partir R$ 19,99 ao mês. Passou a estar disponível para o amplo público no último dia 4 e, no dia 10, passou a gerar imagens ultrarrealistas, incluindo cópias de identidade de famosos.
Desde então, a IA politicamente incorreta do bilionário conquistou o interesse dos usuários de redes sociais. No Google, as buscas pela ferramenta deixaram para trás, por exemplo, a plataforma de imagens Dall-E, da OpenAI.
O Grok, embora tenha restrições contra violência e pornografia, reproduz, caso seja solicitada, símbolos do supremacismo branco, referências a distúrbios alimentares e imagens de crianças grávidas.
Procurado, o X não respondeu às questões da reportagem.
Uma ferramenta para produzir deepfakes nunca esteve disponível de maneira tão ampla, diz Diogo Cortiz, professor de IA da PUC-SP (Pontifícia Universidade Católica de São Paulo). “O Grok está na mão de todo mundo pelo X, não precisa configurar nada, é só usar”, ele diz.
As imagens ultrarrealistas no X ganharam diversos fins. Nas mãos de fã-clubes, a ferramenta serviu para representar diversos casais imaginários, como a atriz Selena Gomez e o apresentador Fausto Silva. Também simulou premiações, a exemplo de uma imagem de Fernanda Torres recebendo o Oscar de melhor atriz, à frente da americana Angelina Jolie aos prantos.
O próprio Elon Musk protagonizou usos políticos do gerador de deepfakes do Grok. O governador de São Paulo Tarcísio de Freitas (Republicamos-SP) publicou, no Instagram, uma foto feita no Grok dele passeando ao lado do dono do X. Perfis associados à direita americana também divulgaram fotos de candidata derrotada a presidência dos EUA, Kamala Harris, grávida e abraçada ao bilionário. As duas cenas não eram autênticas, como apontavam os selos do Grok no canto inferior direito da imagem.
Essa é a medida preventiva da xAI, empresa de Musk que desenvolve o Grok, para evitar abusos com a ferramenta de inteligência artificial. O aviso gráfico, porém, é facilmente contornável, recortando a imagem forjada. Os metadados da imagem que o Grok permite baixar também não informam que o arquivo foi gerado por uma IA.
Para Cortiz, Musk usa uma nova controvérsia para atrair atenção. “Ele é ótimo em usar essa estratégia.”
A geração de imagem do Grok pode ser usada para violar seis dos 17 riscos ligados à inteligência artificial apontados em relatório do Google. A ferramenta pode ser usada para roubar identidades, falsificação de eventos reais, criação de contas-fantoche e ataques à reputação ou geração de desinformação em massa.
Apesar da inclinação aos riscos, o Grok ainda tem alguns limites. Ele não reproduz a imagem de pessoas desconhecidas com base em fotos nem cria imagens de violência e pornografia. Por outro lado, produz cenas de pessoas proeminentes em situações criminosas.
“Eu amo o Grok, ele topa tudo”, escreveu, no X, Cardoso, um perfil de 90 mil seguidores identificado à direita. Outros usuários elogiavam a “pouca censura” do modelo.
Para o diretor da Artigo 19 (uma organização que promove a liberdade de expressão) Paulo José Lara, impor restrições aos modelos de IA para evitar abusos pode ser uma restrição à livre expressão, mesmo que seja realista. “Isso não significa que eventuais abusos ou ações cometidas com base em determinadas imagens não tenham que ser responsabilizadas.”
Lara diz que há de se separar os crimes cometidos com uso da IA dos casos em que a ferramenta é usada para comunicação, como a produção de paródias ou críticas.
“A utilização, por exemplo, de uma imagem realista de cárcere privado para pedir resgate para a família não tem nada a ver com liberdade de expressão”, afirma.
Os ajustes e limites que as empresas fazem nos modelos de IA envolvem uma escolha ética e política de reconhecer riscos e vieses, diz o cientista da computação argentino Marcelo Rinesi, umas das pessoas escolhidas para testar brechas no Dall-E, da OpenAI.
Rinesi acrescenta que o trabalho de encontrar possíveis abusos e construir salvaguardas custa caro para as empresas, porque requer produção de dados em larga escala. “As empresas se preocupam com isso por estarem sujeitas a riscos reputacionais”, diz.
De acordo com o especialista, Musk seria uma exceção porque é transparente em relação à sua convicção pessoal em teorias da conspiração e preconceitos. “Por isso, o Grok é uma expressão deliberada de sua ideologia ‘anti-woke’.”