Surdo desde o nascimento, Paul Meyer usou intérpretes humanos e legendadores para se comunicar com colegas durante seus 25 anos de carreira em RH e recrutamento.
Mas quando as empresas começaram a depender mais de videoconferências durante a pandemia, ele notou uma tendência preocupante. À medida que as reuniões se tornaram online, as empresas começaram a usar regularmente softwares de transcrição impulsionados por IA. À medida que essa tecnologia se tornou parte do cotidiano dos negócios, alguns empregadores pensaram que ela poderia ser usada em outras situações, por exemplo, para substituir intérpretes humanos.
O problema, segundo Meyer, é que há falhas na tecnologia que os empregadores não percebem e que estão tornando a vida mais difícil para os trabalhadores surdos.
“A empresa achava que a tecnologia de IA para legendagem era perfeita. Eles estavam confusos sobre por que eu estava perdendo muita informação.”
A tecnologia de reconhecimento de voz, que se tornou disponível nos locais de trabalho na década de 1990, melhorou muito e criou novas oportunidades para que pessoas com deficiência pudessem ter conversas quando um intérprete não está disponível.
Agora está se tornando mais amplamente usada por pessoas ouvintes como uma ferramenta de produtividade que pode ajudar equipes a resumir notas ou gerar transcrições de reuniões, por exemplo. Segundo a Forrester Research, 39% dos trabalhadores pesquisados globalmente disseram que seus empregadores começaram a usar ou planejam incorporar IA generativa em videoconferências. Seis em cada dez agora usam conferências online ou por vídeo semanalmente, um número que dobrou desde 2020.
O aumento da prevalência tem muitos aspectos positivos para trabalhadores surdos, mas alguns alertam que essas ferramentas podem ser prejudiciais para pessoas com deficiência se os empregadores não entenderem suas limitações. Uma preocupação é a suposição de que a IA pode substituir intérpretes e legendadores humanos treinados. A preocupação é agravada pela histórica falta de contribuição de pessoas com deficiência em produtos de IA, mesmo alguns que são comercializados como tecnologias assistivas.
Modelos de reconhecimento de voz muitas vezes falham em entender pessoas com fala irregular ou com sotaque e podem ter um desempenho ruim em ambientes barulhentos.
“As pessoas têm ideias falsas de que a IA é perfeita para nós. Não é perfeita para nós”, diz Meyer. Ele foi demitido de seu emprego e acredita que a falta de acomodações adequadas o tornou um alvo fácil quando a empresa reduziu o quadro de funcionários.
Startups lideradas por surdos —como a OmniBridge, apoiada pela Intel, e a Sign-Speak, financiada pela Techstars — estão trabalhando em produtos que se concentram na tradução entre a Língua de Sinais Americana (ASL) e o inglês. Adam Munder, fundador da OmniBridge, diz que, embora tenha tido a sorte de ter acesso a tradutores durante todo o dia na Intel, inclusive enquanto caminha pelo escritório e na cantina, ele sabe que muitas empresas não oferecem esse acesso.
“Com a OmniBridge, poderia preencher essas conversas de corredor e cafeteria”, diz Munder.
Mas, apesar do progresso nessa área, há preocupação com a falta de representação de pessoas com deficiência no desenvolvimento de algumas ferramentas de tradução mais convencionais. “Há muitas pessoas ouvintes que estabeleceram soluções ou tentaram fazer coisas assumindo que sabem o que as pessoas surdas precisam, assumindo que sabem a melhor solução, mas podem não entender realmente toda a história”, diz Munder.
No Google, onde 6,5% dos funcionários se identificam como tendo uma deficiência, Jalon Hall, a única mulher negra no grupo de funcionários surdos e com deficiência auditiva do Google, liderou um projeto a partir de 2021 para entender melhor as necessidades dos usuários surdos negros. Muitos com quem ela conversou usam a ASL Negra, uma variante da Língua de Sinais Americana que divergiu em grande parte devido à segregação das escolas americanas nos séculos XIX e XX. Ela diz que as pessoas com quem conversou não acharam que os produtos do Google funcionavam bem para elas.
“Há muitos usuários surdos tecnicamente proficientes, mas eles tendem a não ser incluídos em diálogos importantes. Eles tendem a não ser incluídos em produtos importantes quando estão sendo desenvolvidos”, diz Hall. “Isso significa que eles ficarão ainda mais para trás.”
Em um artigo recente, uma equipe de cinco pesquisadores surdos ou com deficiência auditiva descobriu que a maioria dos estudos de linguagem de sinais publicados recentemente falhou em incluir perspectivas surdas. Eles também não usaram conjuntos de dados que representassem indivíduos surdos e incluíram decisões de modelagem que perpetuavam preconceitos incorretos sobre a linguagem de sinais e a comunidade surda. Esses preconceitos podem se tornar um problema para futuros trabalhadores surdos.
“O que as pessoas ouvintes, que não sinalizam, veem como ‘bom o suficiente’ pode levar a que o padrão para levar produtos ao mercado se torne bastante baixo”, diz Maartje De Meulder, pesquisadora sênior da Universidade de Ciências Aplicadas de Utrecht, na Holanda, que coautora do artigo. “Essa é uma preocupação, que a tecnologia simplesmente não seja boa o suficiente ou não seja voluntariamente adotada por trabalhadores surdos, enquanto eles são obrigados ou até forçados a usá-la.”
Em última análise, as empresas precisarão priorizar a melhoria dessas ferramentas para pessoas com deficiência. O Google ainda não incorporou avanços em seus modelos de reconhecimento de fala em produtos comerciais, apesar de os pesquisadores relatarem a redução de sua taxa de erro em um terço.
Hall diz que recebeu feedback positivo de líderes seniores sobre seu trabalho, mas nenhuma clareza sobre se isso afetará as decisões de produto do Google.
Quanto a Meyer, ele espera ver mais representação surda e ferramentas projetadas para pessoas com deficiência. “Acho que um problema com a IA é que as pessoas pensam que ela ajudará a facilitar a comunicação conosco, mas pode não ser fácil para nós nos comunicarmos com elas”, diz Meyer.