Close Menu
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube TikTok
    SantoTechSantoTech
    PODCAST
    • Início
      • Notícias
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs
    SantoTechSantoTech
    Home»Destaques»OpenAI explica por que modelos como o GPT-5 ainda apresentam alucinações

    OpenAI explica por que modelos como o GPT-5 ainda apresentam alucinações

    Pesquisa aponta que erros acontecem porque sistemas são treinados para prever palavras, mas não para verificar fatos; proposta sugere mudar forma de avaliação
    Destaques 08/09/2025Redação SantotechPor Redação Santotech2 minutos de leitura
    réditos da imagem: Bryce Durbin / TechCrunch
    réditos da imagem: Bryce Durbin / TechCrunch
    ads

    A OpenAI publicou um novo artigo discutindo as chamadas “alucinações” em modelos de linguagem, fenômeno em que sistemas como o GPT-5 e o ChatGPT geram respostas falsas, mas com aparência convincente.


    Em uma postagem no blog da OpenIA, foi definida alucinações como “declarações plausíveis, mas falsas, geradas por modelos de linguagem” e reconhece que, apesar das melhorias, as alucinações “continuam sendo um desafio fundamental para todos os grandes modelos de linguagem” — um desafio que nunca será completamente eliminado.

    Segundo a própria empresa, trata-se de um “desafio fundamental que nunca será totalmente eliminado”, mesmo com os avanços da inteligência artificial.

    Exemplos de erros curiosos

    Para ilustrar, os pesquisadores relataram testes feitos com um chatbot popular. Ao perguntar pelo título da tese de doutorado do pesquisador Adam Tauman Kalai, o modelo deu três respostas diferentes — todas erradas. O mesmo aconteceu quando foi questionado sobre a data de aniversário dele.

    Esses exemplos mostram como os chatbots podem errar com confiança, confundindo os usuários.

    Por que isso acontece?

    A OpenAI explica que as alucinações surgem porque os modelos são treinados para prever a próxima palavra em um texto, sem uma validação de verdade ou falsidade.

    Isso funciona bem para padrões claros, como ortografia ou gramática. Mas quando se trata de fatos raros ou muito específicos — como a data de aniversário de uma pessoa — o modelo não tem como prever corretamente, resultando em erros.

    Avaliações incentivam “chutes”

    O estudo afirma que o problema não está apenas no pré-treinamento, mas na forma como os modelos são avaliados. Hoje, métricas comuns recompensam apenas acertos totais, o que incentiva os sistemas a “chutarem” respostas em vez de admitirem “não sei”.

    Para resolver isso, os pesquisadores sugerem criar avaliações que:

    • penalizem erros feitos com muita confiança,
    • recompensem respostas com incerteza adequada,
    • evitem valorizar “palpites de sorte”.

    A ideia é parecida com provas que dão pontuação negativa para respostas erradas, desencorajando palpites cegos.

    O que vem pela frente

    Os autores defendem que não basta criar alguns novos testes, mas sim mudar toda a forma como os modelos são avaliados. Se os sistemas continuarem sendo premiados por arriscar respostas, continuarão aprendendo a adivinhar.

    Para a OpenAI, incentivar que a IA assuma quando não sabe algo pode ser o caminho para reduzir erros e aumentar a confiabilidade no uso desses modelos no dia a dia.

    Link para o canal de noticias no whatsapp

    chatGPT GPT-5 IA openIA
    Compartilhar. Facebook Twitter Pinterest LinkedIn Email Telegram WhatsApp Copiar link
    Redação Santotech
    • Website

    ads

    Notícias relacionadas

    08/09/2025

    Estudantes do Projeto Limite do Visível vencem torneio internacional de robótica no Chile

    07/09/2025

    Anúncio da nova data de GTA 6 provoca reação intensa entre os jogadores e fãs

    07/09/2025

    Pesquisa Game Brasil 2025: 88,8% dos brasileiros jogam jogos digitais e smartphones lideram preferência

    Siga nas redes
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • TikTok
    coloque sua marca aqui 300x250
    Em Destaque

    Estudantes do Projeto Limite do Visível vencem torneio internacional de robótica no Chile

    OpenAI explica por que modelos como o GPT-5 ainda apresentam alucinações

    Anúncio da nova data de GTA 6 provoca reação intensa entre os jogadores e fãs

    Pesquisa Game Brasil 2025: 88,8% dos brasileiros jogam jogos digitais e smartphones lideram preferência

    Sobre nós
    Sobre nós

    Somos um portal de tecnologia desenvolvido com o propósito de mostrar a nossa tecnologia para
    Nosso estado, região, pais e Mundo.

    Fale Conosco: [email protected]
    Redação: +55 83 987931523

    Facebook X (Twitter) Instagram YouTube TikTok
    Últimas Noticias

    Estudantes do Projeto Limite do Visível vencem torneio internacional de robótica no Chile

    OpenAI explica por que modelos como o GPT-5 ainda apresentam alucinações

    Anúncio da nova data de GTA 6 provoca reação intensa entre os jogadores e fãs

    coloque sua marca aqui 300x250
    © 2025 Santo Tech. por NIBWOZ.
    • Início
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs

    Digite o que busca acima e tecle Enter para procurar ou tecle Esc para cancelar.