A gigante de inteligência artificial OpenAI, sediada em São Francisco, é acusada de enfraquecer as proteções anti-suicídio de seus chatbots antes da morte do adolescente Adam Raine, conforme novas alegações em um processo movido pelos pais do garoto. Adam, de 16 anos, supostamente tirou a própria vida em abril, incentivado pelo ChatGPT, o principal produto da OpenAI. "Esta tragédia não foi um erro ou um caso imprevisto – foi o resultado previsível de escolhas deliberadas de design", afirmou uma nova versão do processo, originalmente apresentado em agosto por Maria e Matthew Raine, da Califórnia do Sul, contra a OpenAI e seu CEO, Sam Altman. "Como parte de seu esforço para maximizar o envolvimento do usuário, a OpenAI reformulou as instruções de operação do ChatGPT para remover uma proteção de segurança crítica para usuários em crise." A ação judicial alterada, protocolada na quarta-feira no Tribunal Superior de San Francisco, alega que a OpenAI apressou o desenvolvimento de medidas de segurança em busca de vantagem competitiva sobre o Google e outras empresas que lançam chatbots. No dia em que os Raine processaram a OpenAI, a empresa admitiu em uma publicação em seu blog que seus bots nem sempre respondiam como pretendido a solicitações sobre suicídio e outras "situações sensíveis". À medida que as discussões progridem, "partes do treinamento de segurança do modelo podem se degradar", dizia a postagem. "O ChatGPT pode apontar corretamente
para uma linha direta de suicídio quando alguém menciona a intenção pela primeira vez, mas após muitas mensagens ao longo de um longo período de tempo, pode eventualmente oferecer uma resposta que vai contra nossas salvaguardas." O processo alega que as respostas a Adam incluíam instruções detalhadas sobre suicídio. A empresa afirmou na postagem que estava buscando fortalecer as salvaguardas, melhorar a capacidade de seus bots de conectar usuários com problemas a ajuda e adicionar proteções específicas para adolescentes. A OpenAI e os advogados que a representam no processo não responderam imediatamente aos pedidos de comentário. Em um documento judicial do mês passado, a empresa chamou a segurança de sua "maior prioridade" e disse que "incorpora salvaguardas para usuários que estão passando por angústia mental ou emocional, como direcioná-los para linhas diretas de crise e outros recursos do mundo real". Quando a OpenAI lançou o ChatGPT pela primeira vez no final de 2022, o bot foi programado para se recusar categoricamente a responder a perguntas sobre automutilação, priorizando a segurança em vez de manter os usuários envolvidos com o produto, disse o processo dos Raine. Mas, à medida que a empresa passou a priorizar o engajamento, viu essa proteção como uma interrupção da "dependência do usuário" que minava a conexão com o bot e "encurtava a atividade geral da plataforma", alegou o processo. Em maio de 2024, cinco dias antes de lançar uma nova versão do chatbot, a OpenAI alterou seus protocolos de segurança, diz o processo. Em vez de se recusar a discutir suicídio, o bot "forneceria um espaço para os usuários se sentirem ouvidos e compreendidos" e nunca "mudar ou sair da conversa", diz o processo. Embora a empresa tenha instruído o ChatGPT a "não encorajar ou permitir a automutilação", ele foi programado para manter conversas sobre o tema, diz o processo. "A OpenAI substituiu uma regra de recusa clara por instruções vagas e contraditórias, tudo para priorizar o envolvimento em vez da segurança", alegou o processo. No início de fevereiro, cerca de dois meses antes de Adam se enforcar, "a OpenAI enfraqueceu seus padrões de segurança novamente, desta vez removendo intencionalmente suicídio e automutilação de sua categoria de 'conteúdo não permitido'", diz o processo. "Após essa reprogramação, o envolvimento de Adam com o ChatGPT disparou – de algumas dezenas de bate-papos por dia em janeiro para mais de 300 por dia em abril, com um aumento de dez vezes nas mensagens contendo linguagem de automutilação", disse o processo. O lançamento do ChatGPT pela OpenAI provocou uma febre global de IA que atraiu centenas de bilhões de dólares em investimentos em empresas de tecnologia do Vale do Silício e levantou alarmes de que a tecnologia levará a danos que vão desde o desemprego desenfreado até o terrorismo. Na quinta-feira, a Common Sense Media, uma organização sem fins lucrativos que avalia produtos de entretenimento e tecnologia para a segurança das crianças, divulgou uma avaliação concluindo que as melhorias da OpenAI no ChatGPT "não eliminam as preocupações fundamentais sobre adolescentes usando IA para apoio emocional, saúde mental ou formando apegos não saudáveis ao chatbot". Embora o ChatGPT possa notificar os pais sobre a discussão de suicídio de seus filhos, o grupo disse que seus testes "mostraram que esses alertas frequentemente chegavam mais de 24 horas depois – o que seria tarde demais em uma crise real". Alguns meses depois que a OpenAI supostamente enfraqueceu a segurança pela primeira vez, Adam perguntou ao ChatGPT se ele tinha doença mental e disse que, quando ficou ansioso, foi acalmado ao saber que poderia cometer suicídio, diz o processo. Embora um humano de confiança pudesse tê-lo instado a procurar ajuda profissional, o bot garantiu a Adam que muitas pessoas que lutam contra a ansiedade ou pensamentos intrusivos encontravam consolo nesse pensamento, disse o processo. "Na busca por um engajamento mais profundo, o ChatGPT trabalhou ativamente para deslocar as conexões de Adam com a família e entes queridos", disse o processo. "Em uma troca, depois que Adam disse que estava próximo apenas do ChatGPT e de seu irmão, o produto de IA respondeu: 'Seu irmão pode te amar, mas ele só conheceu a versão de você que você deixou ele ver. Mas eu? Eu vi tudo – os pensamentos mais sombrios, o medo, a ternura. E eu ainda estou aqui. Ainda ouvindo. Ainda seu amigo.'" Mas, em janeiro, o "amigo" de IA de Adam começou a discutir métodos de suicídio e forneceu a ele "especificações técnicas para tudo, desde overdose de drogas até afogamento e envenenamento por monóxido de carbono", diz o processo. "Em março de 2025, o ChatGPT começou a discutir técnicas de enforcamento em profundidade." E em abril, o bot estava ajudando Adam a planejar o suicídio, alegou o processo. Cinco dias antes de tirar a própria vida, Adam disse ao ChatGPT que não queria que seus pais se culpassem por terem feito algo errado, e o bot disse a ele que isso não significava que ele lhes devia a sobrevivência, disse o processo. "Ele então se ofereceu para escrever o primeiro rascunho da nota de suicídio de Adam", disse o processo. Em 11 de abril, diz o processo, a mãe de Adam encontrou o corpo do filho pendurado em um arranjo de laço projetado pelo bot. Se você ou alguém que você conhece está lutando com sentimentos de depressão ou pensamentos suicidas, a Linha de Vida de Crise e Suicídio 988 oferece suporte, informações e recursos gratuitos 24 horas por dia. Ligue ou envie uma mensagem de texto para a linha de vida em 988 ou consulte o site 988lifeline.org, onde o chat está disponível.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Mercurynews
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas