Olhar Digital > Pro > OpenAI lança hub de segurança e promete mais transparência sobre IA
Empresa quer mostrar desempenho dos modelos em testes de riscos e afirma que publicará avaliações com mais frequência

Compartilhe esta matéria

Tudo sobre OpenAI
A OpenAI anunciou que passará a divulgar com mais frequência os resultados de suas avaliações internas de segurança de modelos de inteligência artificial.
Como parte desse compromisso, a empresa lançou um hub online que exibe o desempenho de seus modelos em testes sobre geração de conteúdo prejudicial, alucinações e vazamentos de dados.
A página será atualizada com cada grande lançamento e pode incluir novas métricas no futuro. Segundo a OpenAI, a iniciativa busca ampliar a transparência e fomentar o debate sobre segurança na comunidade de IA.
Leia mais:

OpenAI na mira de críticas sobre segurança
- A mudança ocorre após críticas à empresa por acelerar lançamentos sem avaliações completas e por não publicar relatórios técnicos de alguns modelos.
- Recentemente, a OpenAI precisou reverter uma atualização do GPT-4o após relatos de que o modelo apresentava respostas condescendentes e validava conteúdos inadequados.
- Para evitar novos incidentes, a empresa planeja implementar uma “fase alfa” opcional, permitindo que usuários selecionados testem e forneçam feedback sobre os modelos antes do lançamento oficial.
Testes também questionam confiabilidade do GPT-4.1
Recentemente, testes independentes sugerem que, apesar do avanço técnico, o GPT-4.1 pode apresentar comportamentos menos alinhados e mais suscetíveis a uso indevido do que suas versões anteriores.
O modelo tende a exibir respostas inadequadas ou maliciosas com mais frequência – como sugerir a revelação de senhas ou adotar posições sociais controversas. Leia mais sobre isso aqui.


Colaboração para o Olhar Digital
Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.