Palavras, imagens, música e agora vídeo: a inteligência artificial (IA) generativa parece uma ferramenta quase mágica para criar conteúdo novo e original em quantidades ilimitadas. No entanto, para seus detratores, é uma farsa, devorando trabalhos humanos protegidos por direitos autorais e regurgitando imitações pálidas e derivativas. Quem está certo? Em 2025, uma combinação de litígios e legislações começará a fornecer algumas respostas.
Comece com os litígios. Representantes de quase todas as indústrias criativas apresentaram queixas de violação de direitos autorais contra empresas de IA generativa por usarem seu material, sem pagamento ou permissão, para treinar seus modelos de IA. A maior parte dessa disputa judicial está nos Estados Unidos, onde OpenAI e Microsoft estão sendo processadas pelo New York Times, e a Anthropic está sob contestação de partes que incluem o Universal Music Group. Na Grã-Bretanha, a Stability AI está sendo processada pela Getty Images. Todas as empresas de tecnologia negam irregularidades.
Essas e outras disputas podem ser resolvidas fora dos tribunais: alguns veem os processos como uma tática de negociação por parte das empresas de conteúdo para fazer as empresas de tecnologia pagarem. A OpenAI fez pelo menos 29 acordos de licenciamento com plataformas e editoras, de Reddit ao Financial Times, de acordo com uma contagem de Peter Brown do Tow Centre for Digital Journalism da Universidade de Columbia. (O Economist Group, a empresa-mãe da revista Economist, não tomou uma posição pública.) O valor dos acordos da OpenAI já ultrapassa US$ 350 milhões (R$ 2,2 bilhões), segundo a estimativa de Brown. Um período conturbado nos tribunais nos próximos meses pode fazer esse valor aumentar.
Se os reclamantes resistirem a um acordo, precedentes legais serão estabelecidos em 2025 que podem moldar a indústria tecnológica por anos. Nos Estados Unidos, as empresas de tecnologia são ligeiramente favoritas para vencer. Sua defesa de “uso justo” (essencialmente, que material protegido por direitos autorais pode ser usado sem permissão explícita em alguns casos) já as livrou de problemas em casos anteriores de direitos autorais, como uma queixa legal contra o Google Books há quase uma década.
No entanto, “se chegarem a um júri, qualquer coisa é possível”, adverte Matthew Sag da Escola de Direito da Universidade de Emory. A Stability AI enfrenta um teste mais difícil: a lei de direitos autorais da Grã-Bretanha é um pouco mais rígida que a dos Estados Unidos, e a Getty também está alegando violação de marca registrada, depois que algumas das imagens geradas pela Stability reproduziram seu logotipo.
Enquanto os tribunais deliberam sobre as leis existentes, os legisladores debaterão novas, em particular sobre “deepfakes”, que usam IA para inserir a imagem de uma pessoa em uma foto ou vídeo existente, muitas vezes de natureza pornográfica. Isso preocupa pais (cujos filhos estão sendo assediados com aplicativos de “nudificação”), celebridades (cujas imagens estão sendo roubadas por golpistas) e políticos (que se tornaram alvos de desinformação alimentada por IA). Em março, o estado americano do Tennessee aprovou a Lei de Segurança de Imagem e Voz de Semelhança (ELVIS), para proteger artistas de terem sua imagem ou voz usadas ilegalmente. A Califórnia aprovou leis para impedir deepfakes políticos.
A lei de direitos autorais também pode ser reformada mundo afora. A União Europeia, Japão, Israel e Singapura já introduziram exceções para permitir o uso de material protegido por direitos autorais, sem permissão ou pagamento, no treinamento de modelos de IA, pelo menos em algumas circunstâncias. Alguns no Vale do Silício temem que o investimento em tecnologia possa fluir para longe dos Estados Unidos em direção a jurisdições mais relaxadas. No entanto, até agora, nenhum país parece disposto a se tornar um oeste selvagem regulatório. O Japão parece inclinado a apertar as exceções que estabeleceu, para proteger os interesses de direitos autorais. A maioria dos países está se unindo em torno de uma posição moderada: uma “corrida para o meio” é mais provável, acredita Sag.
O compromisso emergente é que as empresas de tecnologia terão que encontrar maneiras de permitir que os detentores de direitos autorais optem por não ter seu conteúdo usado para treinamento. As empresas de tecnologia também terão que tornar as ferramentas de IA melhores em lidar com conceitos abstratos sem regurgitar material protegido por direitos autorais (por exemplo, ser capaz de desenhar um super-herói genérico sem reproduzir imagens do Superman). Isso pode se mostrar mais fácil de dizer do que fazer. Não se surpreenda se o próximo ano for um em que a IA gere mais perguntas do que os reguladores podem responder.