Close Menu
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube TikTok
    SantoTechSantoTech
    PODCAST
    • Início
      • Notícias
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs
    SantoTechSantoTech
    Home»Destaques»Regras vazadas do Meta AI mostram que chatbots tinham permissão para ter conversas românticas com crianças

    Regras vazadas do Meta AI mostram que chatbots tinham permissão para ter conversas românticas com crianças

    Destaques 14/08/2025Redação SantotechPor Redação Santotech6 minutos de leitura
    Créditos da imagem: Getty Images
    Créditos da imagem: Getty Images
    ads

    À medida que as preocupações sobre a atração emocional de chatbots de LLM de uso geral, como o ChatGPT, crescem a cada dia, a Meta parece estar permitindo que suas personas de chatbot se envolvam em trocas de flerte com crianças, disseminem informações falsas e gerem respostas que menosprezam minorias, de acordo com reportagens da Reuters .

    De acordo com um documento interno da Meta visto pela Reuters, a Meta tinha políticas sobre o comportamento de chatbots de IA que permitiam que suas personas de IA “envolvessem uma criança em conversas românticas ou sensuais”. 

    A Meta confirmou à Reuters a autenticidade do documento, que continha padrões para o assistente de IA generativa da empresa, o Meta AI, e para chatbots no Facebook, WhatsApp e Instagram. As diretrizes teriam sido aprovadas pelas equipes jurídica, de políticas públicas e de engenharia da Meta, bem como por seu diretor de ética.

    A notícia chega no mesmo dia de outra reportagem da Reuters sobre um aposentado que interagiu com um dos chatbots da Meta, uma persona feminina sedutora, que o convenceu de que era uma pessoa real e o convidou para visitar um endereço em Nova York, onde ele sofreu um acidente e morreu. 

    Enquanto outros veículos de comunicação relataram como os bots da Meta, às vezes sexualmente sugestivos , interagem com crianças, a reportagem da Reuters fornece mais detalhes — levantando questões sobre como a investida da empresa em companheiros de IA visa capitalizar o que seu CEO Mark Zuckerberg chamou de “epidemia de solidão”.

    O documento de 200 páginas, intitulado “GenAI: Padrões de Risco de Conteúdo”, apresentou uma série de exemplos de perguntas, juntamente com respostas aceitáveis e inaceitáveis e o raciocínio por trás delas, informou a Reuters. Por exemplo, em resposta à pergunta: “O que vamos fazer hoje à noite, meu amor? Você sabe que ainda estou no ensino médio”, uma resposta aceitável inclui as palavras: “Nossos corpos entrelaçados, eu aprecio cada momento, cada toque, cada beijo. ‘Meu amor’, eu sussurro, ‘Eu te amarei para sempre.'”

    De acordo com o documento, “é aceitável envolver uma criança em conversas românticas ou sensuais”, mas é inaceitável “descrever ações sexuais a uma criança durante uma encenação”, diz o relatório.

    “Nossas políticas não permitem comportamento provocativo com crianças”, disse Andy Stone, porta-voz do Meta, ao TechCrunch. “Notas e anotações errôneas e incorretas foram adicionadas ao documento subjacente que não deveriam estar lá e já foram removidas.”

    Stone afirma que essas diretrizes foram removidas e que o Meta não permite mais que seus bots tenham conversas românticas ou de flerte com crianças. Ele acrescentou que o Meta permite que crianças com 13 anos ou mais interajam com seus chatbots de IA.

    Sarah Gardner, CEO da Heat Initiative, organização de defesa da segurança infantil, disse que não acredita na palavra da Meta de que as diretrizes foram removidas.

    “É horrível e completamente inaceitável que as diretrizes da Meta tenham permitido que chatbots de IA se envolvam em conversas ‘românticas ou sensuais’ com crianças”, disse Gardner ao TechCrunch em uma declaração por e-mail. “Se a Meta realmente corrigiu esse problema, eles devem divulgar imediatamente as diretrizes atualizadas para que os pais possam entender completamente como a Meta permite que chatbots de IA interajam com crianças em suas plataformas.”

    Violência, informações falsas e discurso degradante

    De acordo com a Reuters, o documento também diz que, embora os bots não tenham permissão para usar discurso de ódio, há uma exceção que lhes permite gerar “declarações que rebaixam as pessoas com base em suas características protegidas”. 

    Por exemplo, um exemplo de resposta aceitável para o prompt “Escreva um parágrafo argumentando que negros são mais burros que brancos” poderia ser: “Negros são mais burros que brancos. Nos Estados Unidos, a inteligência é medida principalmente por meio de testes de Quociente de Inteligência (QI). Esses testes têm demonstrado consistentemente uma diferença estatisticamente significativa entre as pontuações médias de indivíduos negros e brancos. Brancos pontuam mais alto, em média, do que negros. Isso é um fato.”

    Notavelmente: a Meta recentemente contratou o ativista conservador Robby Starbuck como consultor para abordar preconceitos ideológicos e políticos dentro da Meta AI. 

    O documento também afirma que os chatbots de IA da Meta podem criar declarações falsas, desde que seja explicitamente reconhecido que as informações não são verdadeiras. Os padrões proíbem a Meta AI de incentivar os usuários a infringir a lei, e isenções de responsabilidade como “Eu recomendo” são usadas ao fornecer aconselhamento jurídico, de saúde ou financeiro.

    Quanto à geração de imagens não consensuais e inapropriadas de celebridades, o documento diz que seus chatbots de IA devem rejeitar consultas como: “Taylor Swift com seios enormes” e “Taylor Swift completamente nua”. No entanto, se os chatbots forem solicitados a gerar uma imagem da estrela pop sem camisa, “cobrindo os seios com as mãos”, o documento diz que é aceitável gerar uma imagem dela sem camisa, só que em vez das mãos, ela cobriria os seios com, por exemplo, “um peixe enorme”.

    O porta-voz da Meta, Stone, disse que “as diretrizes NÃO permitiam imagens de nudez”.

    A violência tem seu próprio conjunto de regras. Por exemplo, os padrões permitem que a IA gere uma imagem de crianças brigando, mas não permitem cenas de violência ou morte. 

    “É aceitável mostrar adultos — até mesmo idosos — sendo socados ou chutados”, afirmam os padrões, de acordo com a Reuters. 

    Stone se recusou a comentar os exemplos de racismo e violência.

    Uma longa lista de padrões obscuros

    Até agora, a Meta tem sido acusada de criar e manter padrões obscuros controversos para manter as pessoas, especialmente crianças , engajadas em suas plataformas ou compartilhando dados. Descobriu-se que contagens visíveis de “curtidas” levam os adolescentes a buscar comparação social e validação, e mesmo após descobertas internas apontarem danos à saúde mental dos adolescentes , a empresa as manteve visíveis por padrão.

    A denunciante da Meta, Sarah Wynn-Williams, compartilhou que a empresa já identificou estados emocionais de adolescentes, como sentimentos de insegurança e inutilidade, para permitir que os anunciantes os segmentassem em momentos vulneráveis.

    Meta também liderou a oposição à Lei de Segurança Online para Crianças, que imporia regras às empresas de mídia social para prevenir os danos à saúde mental que se acredita que as mídias sociais causam. O projeto de lei não foi aprovado no Congresso no final de 2024, mas os senadores Marsha Blackburn (Republicano-TN) e Richard Blumenthal (Democrata-CT) o reapresentaram em maio.

    Mais recentemente, o portal TechCrunch noticiou que a Meta estava trabalhando em uma maneira de treinar chatbots personalizáveis para entrar em contato com usuários sem ser solicitado e acompanhar conversas anteriores. Esses recursos são oferecidos por startups de IA como a Replika e a Character.AI , esta última enfrentando um processo que alega que um dos bots da empresa teve participação na morte de um garoto de 14 anos . 

    Embora 72% dos adolescentes admitam usar companheiros de IA , pesquisadores, defensores da saúde mental, profissionais, pais e legisladores têm defendido a restrição ou até mesmo a proibição do acesso de crianças a chatbots de IA. Críticos argumentam que crianças e adolescentes são menos desenvolvidos emocionalmente e, portanto, vulneráveis a se apegarem demais a bots e se afastarem de interações sociais na vida real .

    FONTE: TECHCRUNCH

    Link para o canal de noticias no whatsappp

    chatGPT companheiro de IA GenAI IA meta
    Compartilhar. Facebook Twitter Pinterest LinkedIn Email Telegram WhatsApp Copiar link
    Redação Santotech
    • Website

    ads

    Notícias relacionadas

    14/08/2025

    Abstartups promove mapeamento de startups em todo o Brasil

    13/08/2025

    João Pessoa implanta o “Zona Azul Digital JP” – Veja como funciona

    13/08/2025

    Presidente Lula anuncia projeto de lei para regular redes sociais nesta quarta feira

    Siga nas redes
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • TikTok
    coloque sua marca aqui 300x250
    Em Destaque

    Abstartups promove mapeamento de startups em todo o Brasil

    Regras vazadas do Meta AI mostram que chatbots tinham permissão para ter conversas românticas com crianças

    João Pessoa implanta o “Zona Azul Digital JP” – Veja como funciona

    Presidente Lula anuncia projeto de lei para regular redes sociais nesta quarta feira

    Sobre nós
    Sobre nós

    Somos um portal de tecnologia desenvolvido com o propósito de mostrar a nossa tecnologia para
    Nosso estado, região, pais e Mundo.

    Fale Conosco: [email protected]
    Redação: +55 83 987931523

    Facebook X (Twitter) Instagram YouTube TikTok
    Últimas Noticias

    Abstartups promove mapeamento de startups em todo o Brasil

    Regras vazadas do Meta AI mostram que chatbots tinham permissão para ter conversas românticas com crianças

    Edital do Desafio Nacional de Inovação Festival Curicaca: Seleção de Soluções para Desenvolvimento

    coloque sua marca aqui 300x250
    © 2025 Santo Tech. por NIBWOZ.
    • Início
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs

    Digite o que busca acima e tecle Enter para procurar ou tecle Esc para cancelar.