A Meta, dona do Facebook, Instagram e WhatsApp, foi criticada por chamar seus modelos de inteligência artificial de “código aberto” pela Open Source Initiative, grupo que lidera a tecnologia de código aberto no mundo do software há mais de 25 anos.
A empresa de mídia social está “confundindo” os usuários e “poluindo” o termo código aberto ao usá-lo para descrever seus modelos de linguagem Llama, diz Stefano Maffulli, diretor-executivo da Open Source Initiative. A entidade cunhou o termo “código aberto” no final dos anos 1990 e desde então é vista como a guardiã do conceito.
Em uma entrevista ao Financial Times, Maffulli afirmou que isso é “extremamente prejudicial” em um momento em que órgãos como a Comissão Europeia buscam apoiar tecnologias de código aberto genuíno, que estão além do controle de qualquer empresa específica.
O Llama, que a Meta afirma ter sido baixado mais de 400 milhões de vezes, tornou-se o mais popular entre uma onda de modelos de IA supostamente de código aberto que surgiram para desafiar os principais sistemas proprietários, como o GPT-4, da OpenAI, e o Gemini, do Google.
No entanto, a maioria desses modelos, incluindo o Llama, não são totalmente abertos, o que impede o tipo de experimentação e adaptação na IA que o código aberto trouxe para o mundo do software.
Ao criar confusão sobre quais modelos são realmente abertos, a Meta corre o risco de prejudicar o desenvolvimento de longo prazo de formas de IA que são orientadas e controladas pelos usuários, em vez de serem rigidamente controladas por um pequeno número de empresas de tecnologia, segundo o diretor-executivo da Open Source Initiative.
Maffulli diz que o Google e a Microsoft abandonaram o uso do termo “código aberto” para modelos que não são totalmente abertos, mas que as discussões com a Meta não produziram um resultado semelhante.
A Meta afirma que está “comprometida com a IA de código aberto” e que o Llama “tem sido uma base para a inovação em IA globalmente”.
“As definições existentes de código aberto para software não abrangem as complexidades dos modelos de IA que avançam rapidamente hoje. Estamos comprometidos em continuar trabalhando com a indústria em novas definições para servir a todos com segurança e responsabilidade dentro da comunidade de IA”, diz a empresa.
Muitos apoiadores das tecnologias 100% de código aberto ainda atribuem aos modelos mais limitados do Llama da Meta o fato de terem rompido o domínio de algumas grandes empresas de IA dos EUA e aberto o mercado de IA generativa a uma maior concorrência.
Os modelos da Meta foram “um sopro de ar fresco” para os desenvolvedores, diz Dario Gil, chefe de pesquisa da IBM, dando-lhes uma alternativa ao que ele chamou de modelos “caixa-preta” das principais empresas de IA.
No entanto, a transparência é limitada. A Meta permite que os desenvolvedores baixem seus modelos Llama gratuitamente, mas os únicos detalhes técnicos que ela publica são os pesos, ou “vieses”, que influenciam como o modelo responde a determinados comandos.
Além disso, a licença sob a qual o Llama foi lançado não está em conformidade com as definições de código aberto reconhecidas pela Open Source Initiative, já que não permite o uso gratuito da tecnologia pelos maiores concorrentes da Meta.
Outros grupos de tecnologia, como a empresa francesa de inteligência artificial Mistral, começaram a chamar modelos como esse de “open weight”, ou pesos abertos, em vez de código aberto.
“Modelos open weight são ótimos… mas não são suficientes para desenvolver nada em cima deles”, diz Ali Farhadi, chefe do Instituto Allen de IA, que lançou um modelo de inteligência artificial totalmente de código aberto chamado Olmo.
Os desenvolvedores que usam modelos como o Llama não conseguem ver como eles foram desenvolvidos ou construir sobre eles para criar novos produtos próprios, como acontece com o software de código aberto, acrescenta Farhadi.
Para atender à definição de código aberto da Open Source Initiative para IA, que será publicada oficialmente na próxima semana, os desenvolvedores de modelos precisam ser mais transparentes. Além dos pesos de seus modelos, eles também devem divulgar os algoritmos de treinamento e outros softwares usados para desenvolvê-los.
A Open Source Initiative também pede que as empresas de IA liberassem os dados sobre os quais seus modelos foram treinados, embora reconheça que privacidade e outras questões legais às vezes impeçam isso.
Maffulli diz que órgãos como a Comissão Europeia têm buscado dar um reconhecimento especial ao código aberto em suas regulamentações para incentivar seu uso em padrões tecnológicos amplamente utilizados.
Se empresas como a Meta conseguirem transformar isso em um “termo genérico” que possam definir em benefício próprio, elas poderão “inserir suas patentes geradoras de receita em padrões que a Comissão Europeia e outros órgãos estão pressionando para que sejam realmente abertos”, ele alerta.