OpenAI lança hub de segurança e promete mais transparência sobre IA

Empresa quer mostrar desempenho dos modelos em testes de riscos e afirma que publicará avaliações com mais frequência

openAI
Imagem: Vitor Miranda/Shutterstock

Compartilhe esta matéria

A OpenAI anunciou que passará a divulgar com mais frequência os resultados de suas avaliações internas de segurança de modelos de inteligência artificial.

Como parte desse compromisso, a empresa lançou um hub online que exibe o desempenho de seus modelos em testes sobre geração de conteúdo prejudicial, alucinações e vazamentos de dados.

A página será atualizada com cada grande lançamento e pode incluir novas métricas no futuro. Segundo a OpenAI, a iniciativa busca ampliar a transparência e fomentar o debate sobre segurança na comunidade de IA.

Leia mais:

imagem mostra o logo da openai em um smartphone
Novo hub online mostrará como modelos se saem em testes de alucinação, vazamento de dados e geração de conteúdo nocivo (Reprodução: Levart Photographer/Unsplash)

OpenAI na mira de críticas sobre segurança

  • A mudança ocorre após críticas à empresa por acelerar lançamentos sem avaliações completas e por não publicar relatórios técnicos de alguns modelos.
  • Recentemente, a OpenAI precisou reverter uma atualização do GPT-4o após relatos de que o modelo apresentava respostas condescendentes e validava conteúdos inadequados.
  • Para evitar novos incidentes, a empresa planeja implementar uma “fase alfa” opcional, permitindo que usuários selecionados testem e forneçam feedback sobre os modelos antes do lançamento oficial.

Testes também questionam confiabilidade do GPT-4.1

Recentemente, testes independentes sugerem que, apesar do avanço técnico, o GPT-4.1 pode apresentar comportamentos menos alinhados e mais suscetíveis a uso indevido do que suas versões anteriores.

O modelo tende a exibir respostas inadequadas ou maliciosas com mais frequência – como sugerir a revelação de senhas ou adotar posições sociais controversas. Leia mais sobre isso aqui.

Logo da OpenAI
Após críticas, OpenAI promete divulgar testes de segurança com regularidade (Imagem: Henry Franklin/Shutterstock)
Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Compartilhe esta postagem:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Categorias populares

Boletim informativo

Receba dicas e recursos gratuitos diretamente na sua caixa de entrada, junto com mais de 10.000 clientes e alunos.
×