Matt teve uma ajuda secreta quando começou seu novo emprego em uma empresa farmacêutica em setembro.
O pesquisador de 27 anos, que pediu para ser identificado por um pseudônimo, conseguiu acompanhar seus colegas mais experientes recorrendo ao ChatGPT da OpenAI para escrever o código necessário para seu trabalho.
“Parte disso foi pura preguiça. Parte foi acreditar genuinamente que isso poderia tornar meu trabalho melhor e mais preciso”, diz ele.
Matt ainda não sabe ao certo se isso era permitido. Seu chefe não o proibiu explicitamente de acessar ferramentas de IA (inteligência artificial) generativa como o ChatGPT, mas também não o incentivou a fazê-lo —nem estabeleceu diretrizes específicas sobre quais usos da tecnologia seriam apropriados.
“Eu não conseguia ver uma razão para isso ser um problema, mas ainda assim me sentia envergonhado”, diz ele. “Eu não queria admitir que estava usando atalhos.”
Os empregadores têm se esforçado para acompanhar, à medida que os trabalhadores adotam a IA generativa em um ritmo muito mais rápido do que as políticas corporativas avançam. Uma pesquisa de agosto do Fed descobriu que quase um quarto da força de trabalho dos EUA já estava usando a tecnologia semanalmente, chegando a quase 50% nas indústrias de software e financeira.
A maioria desses usuários estava recorrendo a ferramentas como o ChatGPT para ajudar na escrita e pesquisa, muitas vezes como uma alternativa ao Google, além de usá-lo como ferramenta de tradução ou assistente de codificação.
Mas pesquisadores alertam que grande parte dessa adoção inicial tem ocorrido nas sombras, enquanto os trabalhadores traçam seus próprios caminhos na ausência de diretrizes corporativas claras, treinamento abrangente ou proteção de segurança cibernética. Em setembro, quase dois anos após o lançamento do ChatGPT, menos da metade dos executivos entrevistados pela firma de advocacia trabalhista Littler disseram que suas organizações haviam implementado regras sobre como os funcionários deveriam usar a IA generativa.
Entre a minoria que implementou uma política específica, o primeiro impulso foi a proibição. Empresas como Apple, Samsung, Goldman Sachs e Bank of America proibiram funcionários de usar o ChatGPT em 2023, segundo a Fortune, principalmente devido a preocupações com a privacidade dos dados.
Mas à medida que os modelos de IA se tornaram mais populares e poderosos, e são cada vez mais vistos como chave para se manter competitivo em indústrias lotadas, líderes empresariais estão se convencendo de que tais políticas proibitivas não são uma solução sustentável.
“Começamos com ‘bloquear’, mas não queríamos manter o ‘bloquear'”, diz Jerry Geisler, diretor de segurança da informação da varejista americana Walmart. “Só precisávamos de tempo para construir… um ambiente interno para dar às pessoas uma alternativa.”
O Walmart prefere que os funcionários adotem sistemas internos —incluindo um chatbot com IA chamado ‘My Assistant’ para uso interno seguro— mas não proíbe o uso de plataformas externas, desde que não incluam informações privadas em suas solicitações. No entanto, instalou sistemas para monitorar as solicitações que os trabalhadores enviam a chatbots externos em dispositivos corporativos. Membros da equipe de segurança interceptarão comportamentos inaceitáveis e “interagirão com esse associado em tempo real”, diz Geisler.
Geisleracredita que instituir uma política “não punitiva” é a melhor aposta para acompanhar o cenário em constante mudança da IA. “Não queremos que eles pensem que estão em apuros porque a segurança entrou em contato com eles. Só queremos dizer: ‘Ei, observamos essa atividade. Ajude-nos a entender o que você está tentando fazer e provavelmente podemos levá-lo a um recurso melhor que reduzirá o risco, mas ainda permitirá que você atinja seu objetivo.’
“Eu diria que vemos provavelmente quase zero reincidência quando temos esses engajamentos”, diz ele.
O Walmart não está sozinho em desenvolver o que Geisler chama de “playground interno controlado” para os funcionários experimentarem a IA generativa. Entre outras grandes empresas, a McKinsey lançou um chatbot chamado Lilli, a Linklaters iniciou um chamado Laila, e o JPMorgan Chase lançou o “LLM Suite”, um nome um pouco menos criativo.
Empresas sem recursos para desenvolver suas próprias ferramentas enfrentam ainda mais perguntas —desde quais serviços, se houver, adquirir para seus funcionários, até o risco de se tornarem dependentes de plataformas externas.
Victoria Usher, fundadora e diretora executiva da agência de comunicação GingerMay, diz que tentou manter uma “abordagem cautelosa” enquanto também avança além do “pânico inicial” inspirado pela chegada do ChatGPT em novembro de 2022.
A GingerMay começou com uma proibição total, mas no último ano começou a afrouxar essa política. Os funcionários agora têm permissão para usar IA generativa para fins internos, mas apenas com a permissão expressa de um executivo. Os trabalhadores devem acessar a IA generativa apenas usando a assinatura da empresa para o ChatGPT Pro.
“O pior cenário é que as pessoas usem suas próprias contas do ChatGPT e você perca o controle do que está sendo inserido”, diz Usher.
Ela reconhece que sua abordagem atual de pedir aos funcionários que solicitem aprovação para cada uso individual de IA generativa pode não ser sustentável à medida que a tecnologia se torna uma parte mais estabelecida dos processos de trabalho das pessoas. “Estamos realmente felizes em continuar mudando nossas políticas”, diz ela.
Mesmo com estratégias mais permissivas, trabalhadores que têm usado IA em particular para acelerar seu trabalho podem não estar dispostos a compartilhar o que aprenderam.
“Eles parecem gênios. Eles não querem deixar de parecer gênios”, diz Ethan Mollick, professor de gestão na Wharton School da Universidade da Pensilvânia.
Um relatório publicado no mês passado pelo serviço de mensagens no local de trabalho Slack descobriu que quase metade dos trabalhadores de escritório ficaria desconfortável em dizer a seus gerentes que usaram IA generativa —em grande parte porque, como Matt, não queriam ser vistos como incompetentes ou preguiçosos, ou correr o risco de serem acusados de trapaça.
Trabalhadores entrevistados pelo Slack também disseram temer que, se seus chefes soubessem dos ganhos de produtividade obtidos com o uso de IA, enfrentariam demissões, e que aqueles que sobrevivessem a cortes futuros simplesmente receberiam uma carga de trabalho mais pesada.
Geisler espera ter que revisar constantemente a abordagem do Walmart em relação à IA. “Algumas de nossas políticas anteriores já precisam ser atualizadas para refletir como a tecnologia está evoluindo”, diz ele.
Ele também aponta que o Walmart, como uma grande organização global, enfrenta o desafio de estabelecer políticas aplicáveis a muitos tipos diferentes de trabalhadores. “Vamos querer compartilhar com nossos executivos, nossas equipes jurídicas e nossos comerciantes mensagens muito diferentes sobre como vamos usar essa tecnologia do que poderíamos [com] alguém que trabalha em nossos centros de distribuição ou em nossas lojas”, diz ele.
O cenário legal em mudança também pode dificultar para as empresas a implementação de uma estratégia de longo prazo para a IA. A legislação está em desenvolvimento em regiões como os EUA, UE e Reino Unido, mas as empresas ainda têm poucas respostas sobre como a tecnologia afetará os direitos de propriedade intelectual ou se encaixará nas regulamentações existentes de privacidade de dados e transparência. “A incerteza está levando algumas empresas a tentar proibir qualquer coisa relacionada à IA”, diz Michelle Roberts Gonzales, advogada trabalhista da Hogan Lovells.
Para aqueles que tentam desenvolver algum tipo de estratégia, Rose Luckin, professora do Knowledge Lab da University College London, diz que o “primeiro obstáculo” é simplesmente descobrir quem dentro da organização está melhor posicionado para investigar que tipos de IA serão úteis para seu trabalho. Luckin diz que até agora viu essa tarefa ser atribuída a todos, desde um diretor executivo até um estagiário, à medida que as empresas fazem avaliações divergentes de quão crucial a IA será para seus negócios.
Sarah, uma assistente jurídica em um escritório de advocacia boutique em Londres, ficou surpresa ao ser solicitada a pesquisar e projetar o manual de regras sobre como seus colegas mais seniores deveriam usar a IA. “É estranho que isso tenha se tornado meu trabalho”, diz ela. “Sou literalmente o membro mais júnior da equipe.”