Fechar menu
Brasil Eleve

    Assine para atualizações

    Receba as últimas notícias do Brasil Eleve

    O que há de novo

    Com IOF, Lula se distancia mais da classe média

    maio 31, 2025

    Lista dos impostos que o governo Lula criou ou elevou

    maio 30, 2025

    Juros do consignado CLT disparam após nova regra e surpreendem governo

    maio 30, 2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube
    Brasil Eleve
    Anunciar
    • Início
    • Últimas notícias
    • Economia
    • Educação
    • Esportes
    • Internacional
    • Política
    • Contato
      • Política de Privacidade
      • Termos de Uso
    Brasil Eleve
    Home » IA: alucinações são mais frequentes em modelos mais novos – 06/05/2025 – Tec
    Tecnologia

    IA: alucinações são mais frequentes em modelos mais novos – 06/05/2025 – Tec

    Brasil ElevePor Brasil Elevemaio 6, 2025Nenhum comentário7 minutos de leitura
    Compartilhar
    Whatsapp Facebook Twitter LinkedIn Pinterest E-mail Link de cópia


    No mês passado, um robô de IA (inteligência artificial) que gerencia o suporte técnico da Cursor, uma ferramenta emergente para programadores de computador, alertou vários clientes sobre uma mudança na política da empresa. Ele informou que eles não poderiam mais usar o Cursor em mais de um computador.

    Em posts irritados em fóruns da internet, os clientes reclamaram. Alguns cancelaram suas contas na Cursor. E alguns ficaram ainda mais irritados quando perceberam o que havia acontecido: a IA havia anunciado uma mudança de política que não existia.

    “Não temos tal política. Você é livre para usar o Cursor em várias máquinas”, escreveu o CEO e cofundador da empresa, Michael Truell, em um post no Reddit. “Infelizmente, esta é uma resposta incorreta de um bot de suporte de IA de primeira linha.”

    Mais de dois anos após o surgimento do ChatGPT, empresas de tecnologia, trabalhadores de escritório e consumidores comuns estão usando bots de IA para uma variedade cada vez maior de tarefas. Mas ainda não há como garantir que esses sistemas produzam informações precisas.

    As tecnologias mais novas e poderosas —os chamados sistemas de raciocínio de empresas como OpenAI, Google e a startup chinesa DeepSeek— estão gerando mais erros, não menos. Enquanto suas habilidades matemáticas melhoraram notavelmente, seu domínio sobre os fatos ficou mais instável. Não está totalmente claro o porquê disso.

    Os bots de IA atuais são baseados em sistemas matemáticos complexos que aprendem suas habilidades analisando enormes quantidades de dados digitais. Eles não decidem —e não podem decidir— o que é verdadeiro e o que é falso. Às vezes, simplesmente inventam coisas, um fenômeno que alguns pesquisadores de IA chamam de alucinações. Em um teste, as taxas de alucinação dos sistemas de IA mais recentes chegaram a 79%.

    Esses sistemas usam probabilidades matemáticas para adivinhar a melhor resposta, não um conjunto rígido de regras definidas por engenheiros humanos. Portanto, cometem certo número de erros. “Apesar de nossos melhores esforços, eles sempre vão alucinar”, disse Amr Awadallah, ex-executivo do Google e CEO da Vectara, uma startup que constrói ferramentas de IA para empresas. “Isso nunca vai desaparecer.”

    Por vários anos, esse fenômeno levantou preocupações sobre a confiabilidade dos sistemas. Embora sejam úteis em algumas situações —como escrever trabalhos acadêmicos, resumir documentos de escritório e gerar código de computador— seus erros podem causar problemas.

    Os bots de IA vinculados a mecanismos de busca como Google e Bing às vezes geram resultados de pesquisa ridiculamente errados. Se você perguntar sobre uma boa maratona na Costa Oeste, eles podem sugerir uma corrida na Filadélfia. Se informarem o número de residências em Illinois, podem citar uma fonte que não inclui essa informação.

    Essas alucinações podem não ser um grande problema para muitas pessoas, mas são uma questão séria para quem usa a tecnologia com documentos judiciais, informações médicas ou dados comerciais sensíveis.

    “Você gasta muito tempo tentando descobrir quais respostas são factuais e quais não são”, disse Pratik Verma, cofundador e CEO da Okahu, uma empresa que ajuda negócios a navegar pelo problema das alucinações. “Não lidar adequadamente com esses erros basicamente elimina o valor dos sistemas de IA, que deveriam automatizar tarefas para você.”

    A Cursor e Truell não responderam aos pedidos de comentário.

    Por mais de dois anos, empresas como OpenAI e Google melhoraram constantemente seus sistemas de IA e reduziram a frequência desses erros. Mas com o uso de novos sistemas de raciocínio, os erros estão aumentando. Os sistemas mais recentes da OpenAI alucinam a uma taxa maior do que o sistema anterior da empresa, de acordo com os próprios testes da companhia.

    A empresa descobriu que o o3 —seu sistema mais poderoso— alucinou 33% das vezes ao executar seu teste de referência PersonQA, que envolve responder perguntas sobre figuras públicas. Isso é mais do que o dobro da taxa de alucinação do sistema de raciocínio anterior da OpenAI, chamado o1. O novo o4-mini alucinou a uma taxa ainda maior: 48%.

    Ao executar outro teste chamado SimpleQA, que faz perguntas mais gerais, as taxas de alucinação para o3 e o4-mini foram de 51% e 79%. O sistema anterior, o1, alucinou 44% das vezes.

    Em um artigo detalhando os testes, a OpenAI disse que mais pesquisas eram necessárias para entender a causa desses resultados. Como os sistemas de IA aprendem com mais dados do que as pessoas conseguem processar, os especialistas têm dificuldade em determinar por que eles se comportam da maneira que o fazem.

    Testes realizados por empresas independentes e pesquisadores indicam que as taxas de alucinação também estão aumentando para modelos de raciocínio de empresas como Google e DeepSeek.

    Desde o final de 2023, a empresa de Awadallah, Vectara, tem monitorado com que frequência os chatbots se desviam da verdade. A empresa pede que esses sistemas realizem uma tarefa simples que é facilmente verificável: resumir reportagens noticiosas específicas. Mesmo assim, os chatbots persistentemente inventam informações.

    A pesquisa original da Vectara estimou que, nessa situação, os chatbots inventavam informações pelo menos 3% das vezes e, às vezes, até 27%.

    No um ano e meio desde então, empresas como OpenAI e Google reduziram esses números para a faixa de 1% ou 2%. Outras, como a Anthropic, ficaram em torno de 4%. Mas as taxas de alucinação neste teste aumentaram com os sistemas de raciocínio. O sistema de raciocínio da DeepSeek, R1, alucinou 14,3% das vezes. O o3 da OpenAI subiu para 6,8%.

    (O New York Times processou a OpenAI e sua parceira, Microsoft, acusando-as de violação de direitos autorais em relação ao conteúdo de notícias relacionado a sistemas de IA. OpenAI e Microsoft negaram essas acusações.)

    Por anos, empresas como a OpenAI confiaram em um conceito simples: quanto mais dados da internet alimentassem seus sistemas de IA, melhor seria o desempenho deles. Mas eles usaram praticamente todo o texto em inglês disponível na internet, o que significava que precisavam de uma nova maneira de melhorar seus chatbots.

    Então, essas empresas estão se apoiando mais fortemente em uma técnica que os cientistas chamam de aprendizado por reforço. Com esse processo, um sistema pode aprender comportamentos por tentativa e erro. Está funcionando bem em certas áreas, como matemática e programação de computadores, mas ficando aquém em outras.

    Folha Mercado

    Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.

    “A maneira como esses sistemas são treinados, eles começarão a se concentrar em uma tarefa —e começarão a esquecer outras”, disse Laura Perez-Beltrachini, pesquisadora da Universidade de Edimburgo que está entre uma equipe examinando de perto o problema das alucinações.

    Outro problema é que os modelos de raciocínio são projetados para passar tempo “pensando” em problemas complexos antes de chegar a uma resposta. À medida que tentam resolver um problema passo a passo, correm o risco de alucinar em cada etapa. Os erros podem se acumular conforme passam mais tempo pensando.

    Os bots mais recentes revelam cada passo aos usuários, o que significa que os usuários também podem ver cada erro. Pesquisadores também descobriram que, em muitos casos, os passos exibidos por um bot não têm relação com a resposta que ele eventualmente fornece.

    “O que o sistema diz que está pensando não é necessariamente o que ele está pensando”, disse Aryo Pradipta Gema, pesquisador de IA da Universidade de Edimburgo e pesquisador da Anthropic.



    Source link

    Compartilhar. Facebook Twitter Pinterest LinkedIn Tumblr E-mail Link de cópia

    Related Posts

    Celular chinês com garantia de 4 anos; veja modelo e preço – 30/05/2025 – Tec

    maio 30, 2025

    Alibaba e ByteDance intensificam disputa em IA na China – 30/05/2025 – Mercado

    maio 30, 2025

    Como Google e Meta vendem remédio para solidão – 29/05/2025 – Tec

    maio 29, 2025

    Primeiros influenciadores digitais lembram início da fama – 27/05/2025 – Tec

    maio 27, 2025

    Criança na rede social: Meta responsabiliza Apple e Google – 27/05/2025 – Tec

    maio 27, 2025

    Por que a IA não roubou seu emprego – 27/05/2025 – Mercado

    maio 27, 2025

    Assine para atualizações

    Receba as últimas notícias criativas sobre arte e design.

    Últimas postagens
    Manter contato
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo
    Não perca

    11 dicas comprovadas para reduzir o risco de câncer – 31/05/2025 – Equilíbrio e Saúde

    maio 31, 2025

    Muitos de nós fomos pessoalmente afetados pelo câncer, inclusive eu. Sou oncologista, e minha própria…

    Com IOF, Lula se distancia mais da classe média

    maio 31, 2025

    Região onde papa Leão 14 viveu no Peru guarda tesouros – 31/05/2025 – Ciência

    maio 31, 2025

    Recent Posts

    • 11 dicas comprovadas para reduzir o risco de câncer – 31/05/2025 – Equilíbrio e Saúde
    • Com IOF, Lula se distancia mais da classe média
    • Região onde papa Leão 14 viveu no Peru guarda tesouros – 31/05/2025 – Ciência
    • Censura de redes escala duelo de Moraes e Eduardo Bolsonaro
    • EUA pedem a Moraes respeito a procedimentos legais

    Recent Comments

    Nenhum comentário para mostrar.
    maio 2025
    D S T Q Q S S
     123
    45678910
    11121314151617
    18192021222324
    25262728293031
    « abr    
    Sobre nós
    Sobre nós

    Brasil Eleve - Informação de Crescimento um portal de notícias sobre economia, empreendedorismo e desenvolvimento pessoal.

    Envie-nos um e-mail: contato@brasileleve.com

    Facebook Instagram Pinterest YouTube
    Nossas escolhas

    Primeiras impressões de Ancelotti sobre seus convocados – 31/05/2025 – Tostão

    maio 31, 2025

    A luta palestina no futebol – 31/05/2025 – Juca Kfouri

    maio 31, 2025

    PSG busca glória europeia após enfraquecer liga francesa – 30/05/2025 – Esporte

    maio 30, 2025
    Mais popular

    EUA pedem a Moraes respeito a procedimentos legais

    maio 31, 2025

    Tratamento com edição genética salva bebê de dez meses

    maio 30, 2025

    Cerco a Moraes aperta com semana decisiva nos EUA

    maio 30, 2025
    Copyright © 2024. Todos os Direitos Reservados por bomscript.com.br
    • Início
    • Contato

    Type above and press Enter to search. Press Esc to cancel.