Pesquisa revela o que pode aumentar chances de uma IA alucinar

Empresa francesa mostra que respostas curtas pioram a precisão factual de modelos como o GPT-4o e Claude 3.7

chatbot
Imagem: SomYuZu/Shutterstock

Compartilhe esta matéria

Um estudo recente da empresa francesa Giskard revelou que instruções para que modelos de inteligência artificial (IA) sejam concisos podem aumentar significativamente a ocorrência de “alucinações” — respostas factualmente incorretas geradas por IA.

A pesquisa, que avaliou modelos líderes como o GPT-4o da OpenAI, Mistral Large e Claude 3.7 Sonnet da Anthropic, identificou que, ao serem orientados a responder de forma breve, esses sistemas tendem a sacrificar a precisão em favor da economia de palavras.

Isso ocorre especialmente em perguntas mal formuladas ou ambíguas, nas quais seria necessário mais contexto ou explicação para refutar premissas falsas.

Leia mais:

Logos de Grok e ChatGPT nas telas de dois smartphones
IA tende a evitar refutações quando não tem “espaço” para argumentar, gerando respostas falsas com mais frequência (Imagem: lilgrapher/Shutterstock)

Detalhes do estudo

  • De acordo com os pesquisadores, que publicaram em um blog suas descobertas, quando a IA tem pouco “espaço” para argumentar, ela raramente questiona afirmações equivocadas, resultando em respostas mais confiantes — mas erradas.
  • A Giskard alerta que instruções aparentemente inofensivas como “seja conciso” podem comprometer a qualidade informativa de sistemas de IA.
  • Esta realidade é preocupante em contextos sensíveis, como saúde, política ou educação.

Postura do usuário pode influenciar erros

O estudo também revelou que os modelos são menos propensos a corrigir informações quando os usuários se expressam com confiança, e que as preferências dos usuários muitas vezes priorizam estilo ou tom, e não necessariamente a veracidade.

Isso reforça um dilema já enfrentado por empresas como a OpenAI: como equilibrar uma boa experiência de uso com a fidelidade factual das respostas?

Para a Giskard, o desafio vai além da tecnologia: trata-se de alinhar sistemas de IA com objetivos claros de verdade e responsabilidade, mesmo quando isso significa contrariar expectativas do usuário.

IA, chatbot, Chatgpt.
Estudo indica que instruções por brevidade limitam a capacidade de IA de detectar e corrigir erros (Imagem: TeeStocker/Shutterstock)
Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Compartilhe esta postagem:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Categorias populares

Boletim informativo

Receba dicas e recursos gratuitos diretamente na sua caixa de entrada, junto com mais de 10.000 clientes e alunos.
×