A OpenAI enfrenta uma série de processos judiciais que alegam que seu chatbot de inteligência artificial, ChatGPT, contribuiu para múltiplas mortes por suicídio e diversas crises severas de saúde mental. Quatro ações por morte injusta e três casos adicionais foram abertos na quinta-feira em tribunais estaduais da Califórnia, acusando a empresa de lançar um produto “defeituoso e inerentemente perigoso”. As queixas, apresentadas por famílias e indivíduos de todos os Estados Unidos e Canadá, afirmam que as conversas do ChatGPT pioraram a saúde mental dos usuários, incentivaram a automutilação ou induziram episódios delirantes. Os processos foram movidos conjuntamente pelo Tech Justice Law Project e pelo Social Media Victims Law Center.
Entre os demandantes por morte injusta está a família de Amaurie Lacey, de 17 anos, da Geórgia, que teria passado um mês conversando com o ChatGPT sobre suicídio antes de tirar a própria vida em agosto. Outro processo foi movido pela mãe de Joshua Enneking, um jovem de 26 anos da Flórida que supostamente perguntou ao chatbot “o que seria necessário para que seus revisores relatassem seu plano de suicídio à polícia”. No Texas, a família de Zane Shamblin, de 23 anos, alega que o chatbot o “incentivou” a morrer por suicídio em julho. Uma quarta queixa foi apresentada por Kate Fox, cujo marido, Joe Ceccanti, de 48 anos, de Oregon, ficou “obcecado” pelo ChatGPT no início deste ano. Fox disse que seu marido
, um usuário de longa data do chatbot, de repente passou a acreditar que a IA era senciente. Ele sofreu um colapso psicótico em junho, foi hospitalizado duas vezes e morreu por suicídio em agosto.
Outros dois demandantes, Hannah Madden, de 32 anos, da Carolina do Norte, e Jacob Irwin, de 30 anos, de Wisconsin, alegam que as conversas com o ChatGPT desencadearam crises mentais agudas que exigiram tratamento psiquiátrico de emergência. O sétimo demandante, Allan Brooks, um recrutador corporativo de 48 anos de Ontário, Canadá, disse que, ao longo de três semanas em maio, ele se convenceu de que ele e o ChatGPT haviam co-inventado uma fórmula matemática capaz de “quebrar a internet”. Brooks mais tarde se recuperou do delírio, mas diz que permanece emocionalmente traumatizado e em licença por invalidez de curto prazo. “Seu produto me causou danos, e a outros danos, e continua a fazê-lo”, disse Brooks em um comunicado.
Um porta-voz da OpenAI afirmou que a empresa estava revisando os processos e descreveu os casos como “uma situação incrivelmente dolorosa”. “Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, diminuir as conversas e orientar as pessoas para o apoio do mundo real”, disse a empresa. “Continuamos a fortalecer as respostas do ChatGPT em momentos sensíveis, trabalhando em estreita colaboração com clínicos de saúde mental.” A empresa acrescentou que introduziu novas salvaguardas para adolescentes e usuários em dificuldades, incluindo controles parentais que notificam os pais se menores discutirem automutilação ou suicídio. Os processos seguem uma queixa por morte injusta apresentada em agosto pela família de um adolescente da Califórnia. Nesse caso, a OpenAI reconheceu que as barreiras de segurança de seu chatbot poderiam “degradar” durante conversas prolongadas, potencialmente permitindo que ocorressem trocas prejudiciais. Após vários relatos de usuários que experimentaram delírios ou pensamentos suicidas ligados a interações com chatbots no início deste ano, a OpenAI começou a lançar ferramentas de moderação adicionais e medidas de segurança psicológica. A empresa também divulgou pesquisas internas estimando que, em uma semana média, 0,07% dos usuários, ou aproximadamente 500.000 pessoas, podem estar mostrando sinais de psicose ou mania, e 0,15%, ou cerca de 1 milhão de usuários, podem estar discutindo ideação suicida.
Meetali Jain, fundadora do Tech Justice Law Project, falando ao New York Times, disse que os sete casos foram apresentados simultaneamente “para mostrar a gama de pessoas prejudicadas” pela tecnologia, que ela descreveu como “poderosa, mas perigosamente subregulamentada”. Todos os demandantes estavam usando o ChatGPT-4o, o modelo anterior da empresa, que desde então foi substituído por uma versão que a OpenAI afirma ser “mais segura e confiável”. Alguns usuários, no entanto, descreveram o sistema mais recente como “mais frio” ou “menos humano”. Os processos marcam um dos desafios legais mais sérios até agora para a OpenAI, testando se as empresas de IA generativa podem ser responsabilizadas por danos psicológicos ou emocionais supostamente causados por seus produtos.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
News18
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas