o poder da tecnologia cresceu, mas as alucinações também

Mesmo com sistemas mais avançados, empresas como OpenAI e Google enfrentam desafios crescentes com respostas imprecisas

IA seguranca
Imagem: Anggalih Prasetya/Shutterstock

Compartilhe esta matéria

No mês passado, um bot de IA usado no suporte técnico da Cursor, ferramenta voltada para programadores, causou confusão ao informar erroneamente que os usuários não poderiam mais usar o software em mais de um computador.

O alerta falso, que gerou reclamações e cancelamentos, foi atribuído a um erro do próprio sistema de IA, como esclareceu o CEO da empresa.

Esse caso ilustra um problema recorrente: sistemas de IA, mesmo os mais avançados, ainda cometem erros — chamados de “alucinações” — ao gerar informações incorretas com aparente confiança.

Leia mais:

IA e educação.
Taxas de erro aumentam nos modelos mais recentes, levantando dúvidas sobre o uso seguro da tecnologia em áreas sensíveis (Imagem: Thapana_Studio/Shutterstock)

Apesar dos avanços desde o lançamento do ChatGPT, as taxas de erro seguem preocupantes, especialmente com os chamados “modelos de raciocínio”, desenvolvidos por empresas como OpenAI, Google e DeepSeek, como explica o New York Times em um artigo.

Sistemas poderosos alucinam mais

  • Paradoxalmente, quanto mais sofisticados os sistemas, maior tem sido a incidência de alucinações.
  • Em testes recentes, os modelos mais poderosos da OpenAI — como o o3 e o o4-mini — apresentaram taxas de erro de até 79%, superando os modelos anteriores.
  • Segundo pesquisadores, isso ocorre porque esses sistemas geram respostas com base em probabilidades e não têm uma compreensão real de verdade ou falsidade.

Segurança da IA em jogo

Apesar de tentativas de melhorar a precisão com técnicas como aprendizado por reforço, os erros persistem, inclusive em tarefas simples como resumir notícias. Isso compromete o uso seguro da IA em áreas sensíveis como medicina, direito e negócios.

Especialistas apontam que o problema está longe de ser resolvido. Embora novas ferramentas estejam sendo desenvolvidas para rastrear as origens dos erros, a forma como esses modelos operam ainda é em grande parte opaca, o que desafia a confiabilidade da tecnologia.

Logomarca do ChatGPT em tela de celular colocado na frente de imagem de logomarca da OpenAI
Alucinações frequentes em sistemas da OpenAI e outras grandes empresas levantam preocupações (Imagem: One Artist/Shutterstock)
Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.

Compartilhe esta postagem:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Categorias populares

Boletim informativo

Receba dicas e recursos gratuitos diretamente na sua caixa de entrada, junto com mais de 10.000 clientes e alunos.
×