Close Menu
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube TikTok
    SantoTechSantoTech
    PODCAST
    • Início
      • Notícias
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs
    • Vídeos
    SantoTechSantoTech
    Home»Destaques»OpenAI explica por que modelos como o GPT-5 ainda apresentam alucinações

    OpenAI explica por que modelos como o GPT-5 ainda apresentam alucinações

    Pesquisa aponta que erros acontecem porque sistemas são treinados para prever palavras, mas não para verificar fatos; proposta sugere mudar forma de avaliação
    Destaques 08/09/2025Redação SantotechPor Redação Santotech2 minutos de leitura
    réditos da imagem: Bryce Durbin / TechCrunch
    réditos da imagem: Bryce Durbin / TechCrunch

    A OpenAI publicou um novo artigo discutindo as chamadas “alucinações” em modelos de linguagem, fenômeno em que sistemas como o GPT-5 e o ChatGPT geram respostas falsas, mas com aparência convincente.


    Em uma postagem no blog da OpenIA, foi definida alucinações como “declarações plausíveis, mas falsas, geradas por modelos de linguagem” e reconhece que, apesar das melhorias, as alucinações “continuam sendo um desafio fundamental para todos os grandes modelos de linguagem” — um desafio que nunca será completamente eliminado.

    Segundo a própria empresa, trata-se de um “desafio fundamental que nunca será totalmente eliminado”, mesmo com os avanços da inteligência artificial.

    Exemplos de erros curiosos

    Para ilustrar, os pesquisadores relataram testes feitos com um chatbot popular. Ao perguntar pelo título da tese de doutorado do pesquisador Adam Tauman Kalai, o modelo deu três respostas diferentes — todas erradas. O mesmo aconteceu quando foi questionado sobre a data de aniversário dele.

    Esses exemplos mostram como os chatbots podem errar com confiança, confundindo os usuários.

    Por que isso acontece?

    A OpenAI explica que as alucinações surgem porque os modelos são treinados para prever a próxima palavra em um texto, sem uma validação de verdade ou falsidade.

    Isso funciona bem para padrões claros, como ortografia ou gramática. Mas quando se trata de fatos raros ou muito específicos — como a data de aniversário de uma pessoa — o modelo não tem como prever corretamente, resultando em erros.

    Avaliações incentivam “chutes”

    O estudo afirma que o problema não está apenas no pré-treinamento, mas na forma como os modelos são avaliados. Hoje, métricas comuns recompensam apenas acertos totais, o que incentiva os sistemas a “chutarem” respostas em vez de admitirem “não sei”.

    Para resolver isso, os pesquisadores sugerem criar avaliações que:

    • penalizem erros feitos com muita confiança,
    • recompensem respostas com incerteza adequada,
    • evitem valorizar “palpites de sorte”.

    A ideia é parecida com provas que dão pontuação negativa para respostas erradas, desencorajando palpites cegos.

    O que vem pela frente

    Os autores defendem que não basta criar alguns novos testes, mas sim mudar toda a forma como os modelos são avaliados. Se os sistemas continuarem sendo premiados por arriscar respostas, continuarão aprendendo a adivinhar.

    Para a OpenAI, incentivar que a IA assuma quando não sabe algo pode ser o caminho para reduzir erros e aumentar a confiabilidade no uso desses modelos no dia a dia.

    Link para o canal de noticias no whatsapp

    chatGPT GPT-5 IA openIA
    Compartilhar. Facebook Twitter Pinterest LinkedIn Email Telegram WhatsApp Copiar link
    Redação Santotech
    • Website

    Notícias relacionadas

    18/01/2026

    IA Grok vira crise global de deepfakes e expõe fragilidades em segurança de modelos generativos

    18/01/2026

    Prof. Danilo Aleixo fala sobre o desastre em Açude Velho – CG e sustentabilidade

    15/01/2026

    Governo da Paraíba inicia nova edição do Game Dev Quest com 40 equipes selecionadas

    Siga nas redes
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • TikTok
    gobeejobs banner 300x250 santotech
    Em Destaque

    IA Grok vira crise global de deepfakes e expõe fragilidades em segurança de modelos generativos

    Governo da Paraíba inicia nova edição do Game Dev Quest com 40 equipes selecionadas

    Paraíba recebe a maior maratona de criação de jogos do mundo com edições em João Pessoa e Campina Grande

    Pesquisadores derrubam segurança de autenticação por voz

    Sobre nós
    Sobre nós

    Somos um portal de tecnologia desenvolvido com o propósito de mostrar a nossa tecnologia para
    Nosso estado, região, pais e Mundo.

    Fale Conosco: [email protected]
    Redação: +55 83 987931523

    Facebook X (Twitter) Instagram YouTube TikTok
    Últimas Noticias

    IA Grok vira crise global de deepfakes e expõe fragilidades em segurança de modelos generativos

    Prof. Danilo Aleixo fala sobre o desastre em Açude Velho – CG e sustentabilidade

    Governo da Paraíba inicia nova edição do Game Dev Quest com 40 equipes selecionadas

    coloque sua marca aqui 300x250
    © 2026 Santo Tech. por NIBWOZ.
    • Início
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs

    Digite o que busca acima e tecle Enter para procurar ou tecle Esc para cancelar.