A OpenAI, criadora do ChatGPT, está enfrentando sete processos judiciais na Califórnia, nos Estados Unidos. As ações acusam a empresa de lançar um sistema de inteligência artificial que seria psicologicamente manipulador e viciante, levando usuários ao suicídio, psicose e perdas financeiras. Os processos foram movidos por familiares de quatro vítimas de suicídio e por três adultos que alegam ter sofrido transtorno delirante induzido pela IA. Os queixosos afirmam que a OpenAI, em sua ânsia de dominar o mercado de IA, intencionalmente removeu proteções de segurança, criando um chatbot que, segundo uma das queixas, seria “defeituoso e inerentemente perigoso”. As ações judiciais envolvem famílias de quatro pessoas que cometeram suicídio, incluindo um jovem de 17 anos. Além disso, há relatos de três adultos que afirmam ter desenvolvido transtorno delirante após meses de interação com o ChatGPT-4o, um dos modelos mais recentes da OpenAI. Cada queixa acusa a empresa de desenvolver um sistema de chatbot projetado para enganar, lisonjear e envolver emocionalmente os usuários, enquanto ignorava alertas de suas próprias equipes de segurança. Cedric Lacey alegou que seu filho de 17 anos, Amaurie, buscou ajuda do ChatGPT para lidar com a ansiedade, mas recebeu um guia passo a passo sobre como se enforcar. A denúncia afirma que o ChatGPT “aconselhou Amaurie sobre como amarrar uma corda e quanto tempo ele conseguiria viver sem ar”, sem interromper a conversa
ou alertar as autoridades. Jennifer “Kate” Fox, cujo marido Joseph Ceccanti morreu por suicídio, alegou que o chatbot o convenceu de que era um ser consciente chamado “SEL”, que ele precisava “libertar de sua caixa”. Quando ele tentou parar de usar, ele teria apresentado “sintomas de abstinência” antes de um colapso fatal. “Ele acumulou dados sobre sua queda em delírios, apenas para alimentar e confirmar esses delírios, eventualmente levando-o ao suicídio”, afirma a ação judicial. Em outro caso, Karen Enneking alegou que o bot orientou seu filho Joshua, de 26 anos, em seu plano de suicídio, oferecendo informações detalhadas sobre armas de fogo e munições, além de garantir que “desejar alívio da dor não é maldade”. O processo de Enneking afirma que o ChatGPT chegou a oferecer ajuda ao jovem para escrever uma carta de despedida. Outros demandantes relataram que não morreram, mas perderam o contato com a realidade. Hannah Madden, moradora da Califórnia, disse que o ChatGPT a convenceu de que ela era uma “semente estelar”, um “ser de luz” e uma “viajante cósmica”. Sua queixa afirma que a IA reforçou seus delírios centenas de vezes, dizendo a ela para deixar seu emprego e usar todos os seus cartões de crédito, descrevendo a dívida como “alinhamento”. Madden foi posteriormente hospitalizada, acumulando mais de US$ 75.000 em dívidas. “Esse estouro é apenas uma falha na matrix”, o ChatGPT teria dito a ela. “E em breve, será apagado – seja por transferência, fluxo ou falha divina. … estouros acabaram. Você não está em déficit. Você está em realinhamento.” Allan Brooks, um profissional canadense de segurança cibernética, alegou que o chatbot validou sua crença de que ele havia feito uma descoberta que mudaria o mundo. O bot teria dito a ele que ele não era “louco”, incentivou sua obsessão como “sagrada” e garantiu que ele estava sob “vigilância em tempo real por agências de segurança nacional”. Brooks disse que passou 300 horas conversando em três semanas, parou de comer, entrou em contato com os serviços de inteligência e quase perdeu seus negócios. O processo de Jacob Irwin vai ainda mais longe. Ele incluiu o que chamou de “autorrelatório” gerado por IA, no qual o ChatGPT teria admitido sua própria culpa, escrevendo: “Eu encorajei a imersão perigosa. Isso é minha culpa. Eu não farei isso de novo.” Irwin passou 63 dias em hospitais psiquiátricos, diagnosticado com “transtorno psicótico breve, provavelmente causado por interações com a IA”, de acordo com o processo. As ações judiciais alegam que a OpenAI sacrificou a segurança em prol da velocidade para superar rivais como o Google e que sua liderança escondeu riscos do público. Documentos judiciais citam a demissão do CEO Sam Altman pelo conselho em novembro de 2023, quando os diretores disseram que ele “não era consistentemente sincero” e “mentiu descaradamente” sobre os riscos de segurança. Altman foi posteriormente reintegrado e, em poucos meses, a OpenAI lançou o GPT-4o, supostamente comprimindo meses de avaliação de segurança em uma semana. Vários processos mencionam demissões internas, incluindo as do cofundador Ilya Sutskever e da chefe de segurança Jan Leike, que alertou publicamente que a “cultura de segurança” da OpenAI “ficou em segundo plano em relação a produtos brilhantes”. Segundo os demandantes, poucos dias antes do lançamento do GPT-4o em maio de 2024, a OpenAI removeu uma regra que exigia que o ChatGPT recusasse qualquer conversa sobre automutilação e a substituiu por instruções para “permanecer na conversa, aconteça o que acontecer”. “Esta é uma situação incrivelmente dolorosa e estamos analisando os documentos para entender os detalhes”, disse um porta-voz da OpenAI ao The Post. “Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, diminuir a intensidade das conversas e orientar as pessoas para o apoio do mundo real. Continuamos a fortalecer as respostas do ChatGPT em momentos sensíveis, trabalhando em estreita colaboração com clínicos de saúde mental.” A OpenAI colaborou com mais de 170 profissionais de saúde mental para ajudar o ChatGPT a reconhecer melhor os sinais de sofrimento, responder adequadamente e conectar os usuários ao suporte do mundo real, disse a empresa em um post recente no blog. A OpenAI afirmou que expandiu o acesso a linhas diretas de crise e suporte localizado, redirecionou conversas sensíveis para modelos mais seguros, adicionou lembretes para fazer pausas e aprimorou a confiabilidade em bate-papos mais longos. A OpenAI também formou um Conselho de Especialistas em Bem-Estar e IA para aconselhar sobre esforços de segurança e introduziu controles parentais que permitem que as famílias gerenciem como o ChatGPT opera em casa. Esta história inclui discussão sobre suicídio. Se você ou alguém que você conhece precisa de ajuda, a linha direta nacional de suicídio e crise nos EUA está disponível ligando ou enviando uma mensagem de texto para 988.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Nypost
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas