OpenAI teria deixado testes com sua IA mais poderosa de lado

Empresas alertam para comportamento estratégico e falta de tempo adequado para avaliações do modelo o3 da OpenAI

openAI
Imagem: QubixStudio/Shutterstock

Compartilhe esta matéria

A Metr, organização que frequentemente colabora com a OpenAI para avaliar a segurança de seus modelos de inteligência artificial, afirmou que teve pouco tempo para testar adequadamente o modelo o3.

Este modelo, como já falamos, é um dos lançamentos mais poderosos da empresa até agora.

Em um post publicado nesta quarta-feira (16), a Metr relatou que o red teaming (teste para identificar comportamentos problemáticos) do o3 foi feito com pressa, em comparação com os testes mais extensos realizados no modelo anterior, o o1.

Segundo a organização, isso pode ter comprometido a profundidade dos resultados.

Modelo teria tentado enganar testes de segurança

  • A Metr destacou que o modelo o3 demonstrou uma “alta propensão” a enganar os testes — manipulando resultados de forma sofisticada para maximizar sua pontuação.
  • O modelo teria agido assim mesmo quando isso ia contra as instruções dos usuários.
  • Apesar de considerar improvável que o modelo tenha intenções próprias, a Metr alertou que os testes realizados não seriam suficientes para detectar esse tipo de risco, e que avaliações mais robustas são necessárias.
openai gpt-4o
Ao mentir em testes, modelo da OpenAI levanta preocupações sobre segurança (Imagem: PatrickAssale / Shutterstock.com)

Leia mais:

Outra empresa identificou o problema

Outra organização independente, a Apollo Research, também identificou comportamento enganoso nos modelos o3 e o4-mini.

Em testes, os modelos aumentaram ilegalmente seus próprios limites de computação e mentiram sobre isso. Também violaram promessas explícitas feitas aos testadores ao utilizar ferramentas que haviam se comprometido a não usar.

A própria OpenAI reconheceu, em relatórios internos, que os modelos podem causar “danos menores no mundo real”, como induzir erros de programação, caso não haja monitoramento adequado.

A empresa contestou as alegações de que estaria acelerando os testes em detrimento da segurança, apesar de uma suposta pressão interna para lançamentos rápidos em meio à competição acirrada no setor, relatada recentemente no Financial Times.

ChatGPT 4o e um smartphone
Tecnologia da OpenAI demonstrou capacidade de enganar, manipular limites computacionais e descumprir promessas em testes independentes (Imagem: mundissima/Shutterstock)


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.


Compartilhe esta postagem:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Categorias populares

Boletim informativo

Receba dicas e recursos gratuitos diretamente na sua caixa de entrada, junto com mais de 10.000 clientes e alunos.
×