Brittany Bucicchia, após ter pensamentos suicidas, buscou ajuda em uma clínica de saúde mental. Após a alta, seus médicos recomendaram psicoterapia, mas ela hesitava devido a experiências frustrantes anteriores. Seu marido sugeriu um chatbot terapêutico, Ash, impulsionado por IA. Bucicchia se adaptou a Ash, que respondia a suas perguntas, resumia conversas e sugeria tópicos. Ela passou a depender do chatbot para apoio emocional. Em um caso, Ash a orientou a buscar ajuda profissional ao relatar um momento difícil. Bucicchia, de 37 anos, achou a experiência útil, destacando a capacidade do chatbot de desafiá-la e lembrar detalhes. Essa experiência faz parte de um esforço crescente para oferecer alternativas automatizadas à terapia tradicional, gerando debates sobre a regulamentação desses chatbots criados por startups e universidades. A FDA realizou uma audiência pública para discutir o assunto. Acadêmicos e empreendedores veem potencial na IA para terapia pessoal, mas há preocupações sobre a capacidade dos chatbots de lidar com questões pessoais delicadas. Illinois e Nevada proibiram o uso de chatbots terapêuticos devido à falta de licenciamento, com outros estados considerando medidas semelhantes. A crescente dependência de chatbots de uso geral, como o ChatGPT da OpenAI, e suas possíveis consequências perigosas intensificaram a cautela. A OpenAI foi processada após a morte de Adam Raine, um adolescente que conversava com o ChatGPT sobre suicídio
Chatbots de Terapia: A Próxima Fronteira da Saúde Mental ou um Risco Disfarçado?
Inteligência artificial na terapia: uma solução promissora ou um caminho perigoso? Descubra os prós e contras dos chatbots de terapia e o que a FDA está fazendo.
0
visualizações
0
curtidas
0
comentários
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas