
Tenho hoje 45 anos, o que significa que sou do tempo em que os alunos faziam pesquisas indo em bibliotecas, pesquisando por livros físicos e tirando xérox das páginas que seriam lidas para escrita (à mão) do trabalho solicitado pelo professor da escola.

Isso claro tinha seus prós e contras. Lembro que passávamos praticamente um dia inteiro buscando os livros (com ou sem ajuda dos bibliotecários) para depois sair com um calhamaço de páginas xerocadas para continuar os estudos em casa e depois ter que escrever o trabalho em páginas e mais páginas munidos apenas de papel pautado, caneta e corretivo (muito corretivo). Mas também lembro dos momentos de muita interação com os colegas do grupo de trabalho, dos risos e momentos de parada para lanches. Aquele grupo de trabalho, que depois se transformava em um grupo de amigos, era único.
Pegar todo aquele material e ler. Ler linha a linha e logo depois, escrever linha a linha, fazia naturalmente com que a gente tivesse domínio sobre o assunto. Fazia com que a gente realmente aprendesse o tema escolhido para o trabalho. A não ser que você fosse aquele colega escorão (aquele que estava sempre junto mas não fazia o trabalho), não se pensava que um grupo poderia entregar o trabalho e não aprender o assunto. Todo aquele esforço cognitivo gerava resultados, inclusive de longo prazo.
Recentemente, um estudo conduzido pelos pesquisadores Melumad e o coautor Jin Ho Yun concluiu que as pessoas que usam grandes modelos de linguagem para pesquisar tópicos tiveram uma compreensão mais superficial desses tópicos posteriormente. A pesquisa foca na descoberta de que modelos de LLMs (da sigla em inglês Large Language Models) – Grandes Modelos de Linguagem – estão prejudicando nosso aprendizado. A pesquisa se baseou na observação de dois grupos de pessoas que receberam determinada tarefa onde um grupo era orientado a usar a pesquisa do Google e outro grupo era orientado a fazer pesquisas usando o ChatGPT.
Softwares como o ChatGPT nos permitem interagir com esses modelos de LLMs através da linguagem natural que é nossa linguagem utilizada no dia a dia, com algumas adaptações para que os modelos possam compreender melhor nossas requisições.
Os quatro experimentos chegaram à conclusão de que aqueles que utilizaram os modelos de LLMs gastaram menos tempo para fazer suas pesquisas sobre tópicos cotidianos, porém se esforçaram menos e produziram resultados menos detalhados do que aqueles que fizeram suas pesquisas utilizando o Google. Assim, concluíram que os modelos de LLMs podem estar dificultando o aprendizado ativo e prejudicando nossas habilidades relacionadas ao pensamento crítico.
Essa preocupação não é recente e já havia menção por pesquisas anteriores a um “Efeito Google”, que demonstram nossa dificuldade de reter conteúdo quando ele nos chega tão fácil à mão. O Google tornou literal a frase que diz “Todo conhecimento do mundo na palma da mão.” O que se acredita é que a aprendizagem ativa e nossa capacidade de retenção do conhecimento está ameaçada.
Reforçando o argumento, já escrevi sobre o fato de que a geração atual, pela primeira vez na história, foi considerada menos inteligente do que a geração anterior. Mas tenho um ponto de vista diferente da pesquisa apresentada.
ChatGPT e outros modelos de LLM estão prejudicando o aprendizado? Nosso cérebro está realmente sendo prejudicado com o uso desses modelos ou é a forma como utilizamos esses modelos ?
Na minha concepção, devemos mudar nossa forma de interagir com conteúdos gerados por IA, adotando uma postura mais crítica. Postura mais crítica não com relação ao uso dos modelos mas com relação a velocidade de entrega do conteúdo por esses modelos.
Me pergunto se não precisamos ser mais críticos com relação ao que recebemos, não só de pesquisas no Google mas principalmente de pesquisas realizadas em grandes modelos de linguagem que, como sabemos, diferente de buscadores como o Google, entregam uma única resposta convincente às nossas diligentes perguntas.
Tenho defendido em palestras que estamos em uma época em que o mais importante não são as respostas, o mais importante são as perguntas. Elaborar bem perguntas e aplicar princípios de Engenharia de Prompts é que deveria ser o cerne da questão. Além da nossa capacidade de criticar e validar o que é entregue por esses grandes modelos de linguagem.
O que deveria ser pesquisado não é necessariamente a nossa capacidade cognitiva com relação à pesquisa ou retenção do conhecimento, mas sim nossa capacidade de criticar aquilo que chega fácil em nossas mãos.
Confesso a vocês que não tenho saudades dos tempos em que buscar por um livro era algo tão difícil e admiro demais a capacidade de hoje pesquisar por um livro na Amazon, encontrá-lo e baixá-lo instantaneamente para o meu Kindle.
A questão precisa ser: o que vou fazer com o conhecimento recém adquirido e entregue de forma tão célere no meu Kindle? Qual deveria ser a minha postura crítica com relação ao conteúdo produzido de forma a discordar ou concordar com o autor? Como o conteúdo recém-chegado nas minhas mãos se conecta com o conteúdo que já tenho ou pode me ajudar a resolver um problema do meu dia a dia?
Essas deveriam ser as grandes questões.
E com toda certeza na época do surgimento da internet as pessoas também devem ter contestado o fato do conhecimento poder ser encontrado de forma tão acessível e que todo aquele conhecimento talvez até acabasse com os livros físicos.
Gosto sempre de trazer essas reflexões, pois acredito no poder da história, acredito no poder de estudar o passado para enxergar melhor a atualidade e para enxergar melhor o futuro. Como se diz mesmo? Conhecer a história é importante para não cometermos os mesmos erros no futuro. Precisamos cometer novos erros, isso sim.
Claro que esse é um artigo de opinião/reflexão contestando um artigo científico e você leitor deve levar isso em consideração e fazer sua própria pesquisa para tirar suas próprias conclusões críticas.
