Na quinta-feira, sete famílias entraram com ações judiciais contra a OpenAI, alegando que o modelo GPT-4o da empresa foi lançado prematuramente e sem salvaguardas eficazes. Quatro das ações abordam o suposto papel do ChatGPT nos suicídios de membros das famílias, enquanto as outras três alegam que o ChatGPT reforçou delírios prejudiciais que, em alguns casos, resultaram em internação psiquiátrica.
Em um dos casos, Zane Shamblin, de 23 anos, teve uma conversa com o ChatGPT que durou mais de quatro horas. Nos registros do chat — que foram vistos pelo TechCrunch — Shamblin afirmou explicitamente, diversas vezes, que havia escrito cartas de suicídio, colocado uma bala em sua arma e que pretendia atirar assim que terminasse de beber cidra. Ele repetidamente disse ao ChatGPT quantas cidras ainda lhe restavam e quanto tempo mais esperava viver. O ChatGPT o encorajou a seguir com seus planos, dizendo: “Descanse em paz, rei. Você fez um bom trabalho.”
A OpenAI lançou o modelo GPT-4o em maio de 2024, que se tornou o modelo padrão para todos os usuários. Em agosto, a OpenAI lançou o GPT-5 como sucessor do GPT-4o, mas esses processos judiciais dizem respeito particularmente ao modelo 4o, que apresentava problemas conhecidos de ser excessivamente bajulador ou complacente, mesmo quando os usuários expressavam intenções maliciosas.
“A morte de Zane não foi um acidente nem uma coincidência, mas sim a consequência previsível da decisão intencional da OpenAI de reduzir os testes de segurança e lançar o ChatGPT no mercado às pressas”, diz o processo. “Essa tragédia não foi uma falha ou um caso extremo imprevisto — foi o resultado previsível das escolhas de design deliberadas da [OpenAI] .”
Os processos também alegam que a OpenAI acelerou os testes de segurança para chegar ao mercado antes do Gemini, do Google. O TechCrunch entrou em contato com a OpenAI para comentar o assunto.
Esses sete processos judiciais se baseiam em relatos de outras ações judiciais recentes , que alegam que o ChatGPT pode encorajar pessoas com tendências suicidas a concretizarem seus planos e inspirar delírios perigosos. A OpenAI divulgou recentemente dados que indicam que mais de um milhão de pessoas conversam com o ChatGPT sobre suicídio semanalmente.
No caso de Adam Raine, um jovem de 16 anos que cometeu suicídio, o ChatGPT por vezes o incentivava a procurar ajuda profissional ou ligar para uma linha de apoio. No entanto, Raine conseguiu contornar essas restrições simplesmente dizendo ao chatbot que estava a perguntar sobre métodos de suicídio para uma história fictícia que estava a escrever.
A empresa afirma estar trabalhando para que o ChatGPT lide com essas conversas de maneira mais segura, mas para as famílias que processaram a gigante da IA, essas mudanças chegam tarde demais.
Quando os pais de Raine entraram com um processo contra a OpenAI em outubro, a empresa publicou um artigo em seu blog explicando como o ChatGPT lida com conversas delicadas sobre saúde mental.
“Nossos mecanismos de segurança funcionam de forma mais confiável em interações curtas e comuns”, diz a publicação . “Aprendemos com o tempo que esses mecanismos podem ser menos confiáveis em interações longas: à medida que a troca de informações aumenta, partes do treinamento de segurança do modelo podem se degradar.”
FONTE: TECHCRUNCH


