Os visionários do Vale do Silício sonham em ganhar muito dinheiro com produtos futuristas e legais que encantam os consumidores, como o metaverso, carros autônomos ou aplicativos de monitoramento de saúde. A realidade mais monótona é que a maioria dos capitalistas de risco gera os melhores retornos investindo em coisas entediantes vendidas para outras empresas.
Nas últimas duas décadas, o Software como Serviço (SaaS) emergiu como um dos campos mais lucrativos para investimento de capital de risco, gerando 337 unicórnios, ou startups de tecnologia avaliadas em mais de US$ 1 bilhão.
Mas negócios típicos de SaaS, como sistemas de gestão de relacionamento com clientes, plataformas de processamento de pagamentos e ferramentas de design colaborativo, raramente aceleram o coração do consumidor. Os investidores os adoram da mesma forma: são leves em capital, rapidamente escaláveis e podem gerar torrentes de receita a partir de licenças corporativas confiáveis e, muitas vezes, insensíveis ao preço.
Isso pode muito bem ser o caso da IA (inteligência artificial) generativa também. Por enquanto, os consumidores ainda estão deslumbrados com a habilidade aparentemente mágica dos modelos de base de gerar grandes quantidades de texto, vídeo e música plausíveis e de clonar vozes e imagens. As grandes empresas de IA também estão exaltando o valor dos agentes digitais pessoais voltados para o consumidor que supostamente vão facilitar nossas vidas.
“Agente” será a palavra do próximo ano, disse recentemente Sarah Friar, diretora financeira da OpenAI, ao FT. “Pode ser um pesquisador, um assistente útil para pessoas comuns, mães trabalhadoras como eu. Em 2025, veremos os primeiros agentes muito bem-sucedidos implantados para ajudar as pessoas no seu dia a dia”, afirmou.
Enquanto as grandes empresas de IA, como OpenAI, Google, Amazon e Meta, estão desenvolvendo agentes de uso geral que podem ser usados por qualquer pessoa e um pequeno exército de startups está trabalhando em agentes de IA mais especializados para negócios.
Atualmente, os sistemas de IA generativa são vistos principalmente como copilotos que aumentam a capacidade dos funcionários humanos, ajudando-os a escrever códigos melhores, por exemplo. Em breve, os agentes de IA podem se tornar pilotos automáticos autônomos para substituir equipes e funções empresariais por completo.
Em uma discussão recente, os parceiros da Y Combinator disseram que a incubadora do Vale do Silício foi inundada com aplicações impressionantes de startups que buscam aplicar agentes de IA em áreas que incluem recrutamento, integração, marketing digital, suporte ao cliente, garantia de qualidade, cobrança de dívidas, faturamento médico e busca e licitação de contratos governamentais.
O conselho deles foi: encontre o trabalho administrativo mais entediante e repetitivo que puder e automatize-o. A conclusão deles foi que agentes de IA verticais podem muito bem se tornar o novo SaaS. Espere que mais de 300 unicórnios de agentes de IA sejam criados.
Dois fatores podem retardar a taxa de adoção, no entanto. Primeiro, se os agentes de IA realmente forem capazes de substituir equipes e funções inteiras, parece improvável que os gerentes de linha os adotem rapidamente. Suicídio gerencial não é uma estratégia ensinada na maioria das escolas de negócios.
Executivos-chefes implacáveis, que entendem a tecnologia, podem impor brutalidade a seus subordinados em busca de maior eficiência. Ou, mais provavelmente, novas estruturas empresariais evoluirão à medida que startups buscam explorar ao máximo os agentes de IA. Alguns fundadores já estão falando sobre criar empresas autônomas sem funcionários. Suas festas de Natal podem ser um pouco monótonas, no entanto.
O segundo fator frustrante pode ser a preocupação sobre o que acontece quando agentes interagem cada vez mais com outros agentes e os humanos ficam fora do circuito. Como é esse ecossistema multiagente e como ele funciona na prática? Como alguém pode garantir confiança e impor responsabilidade?
“Você tem que ser super cuidadoso”, diz Silvio Savarese, professor da Universidade de Stanford e cientista-chefe da Salesforce, a gigante empresa de SaaS que está experimentando agentes de IA. “Precisamos de limites para fazer esses sistemas se comportarem adequadamente.”
Tentar modelar —e controlar— sistemas inteligentes multiagentes é uma das áreas de pesquisa mais intrigantes hoje. Uma maneira é treinar agentes de IA para sinalizar áreas de incerteza e buscar assistência quando confrontados com desafios não reconhecidos. “Uma IA não deve ser uma mentirosa competente. Ela tem que vir a um humano e dizer: ‘Me ajude'”, afirma Savarese.
Caso contrário, a preocupação é que agentes mal treinados possam sair do controle, assim como a vassoura mágica instruída a buscar baldes de água no poema “O Aprendiz de Feiticeiro” de Johann Wolfgang von Goethe. “Os espíritos que eu invoquei estão ignorando meu comando, estão fora do meu controle”, lamenta o aprendiz, observando a bagunça causada por sua magia inexperiente. É engraçado como dilemas fictícios antigos estão agora assumindo novas formas computacionais surpreendentes.