
A OpenAI publicou um novo artigo discutindo as chamadas “alucinações” em modelos de linguagem, fenômeno em que sistemas como o GPT-5 e o ChatGPT geram respostas falsas, mas com aparência convincente.
Em uma postagem no blog da OpenIA, foi definida alucinações como “declarações plausíveis, mas falsas, geradas por modelos de linguagem” e reconhece que, apesar das melhorias, as alucinações “continuam sendo um desafio fundamental para todos os grandes modelos de linguagem” — um desafio que nunca será completamente eliminado.
Segundo a própria empresa, trata-se de um “desafio fundamental que nunca será totalmente eliminado”, mesmo com os avanços da inteligência artificial.
Exemplos de erros curiosos
Para ilustrar, os pesquisadores relataram testes feitos com um chatbot popular. Ao perguntar pelo título da tese de doutorado do pesquisador Adam Tauman Kalai, o modelo deu três respostas diferentes — todas erradas. O mesmo aconteceu quando foi questionado sobre a data de aniversário dele.
Esses exemplos mostram como os chatbots podem errar com confiança, confundindo os usuários.
Por que isso acontece?
A OpenAI explica que as alucinações surgem porque os modelos são treinados para prever a próxima palavra em um texto, sem uma validação de verdade ou falsidade.
Isso funciona bem para padrões claros, como ortografia ou gramática. Mas quando se trata de fatos raros ou muito específicos — como a data de aniversário de uma pessoa — o modelo não tem como prever corretamente, resultando em erros.
Avaliações incentivam “chutes”
O estudo afirma que o problema não está apenas no pré-treinamento, mas na forma como os modelos são avaliados. Hoje, métricas comuns recompensam apenas acertos totais, o que incentiva os sistemas a “chutarem” respostas em vez de admitirem “não sei”.
Para resolver isso, os pesquisadores sugerem criar avaliações que:
- penalizem erros feitos com muita confiança,
- recompensem respostas com incerteza adequada,
- evitem valorizar “palpites de sorte”.
A ideia é parecida com provas que dão pontuação negativa para respostas erradas, desencorajando palpites cegos.
O que vem pela frente
Os autores defendem que não basta criar alguns novos testes, mas sim mudar toda a forma como os modelos são avaliados. Se os sistemas continuarem sendo premiados por arriscar respostas, continuarão aprendendo a adivinhar.
Para a OpenAI, incentivar que a IA assuma quando não sabe algo pode ser o caminho para reduzir erros e aumentar a confiabilidade no uso desses modelos no dia a dia.
