A OpenAI estabeleceu um conselho consultivo de especialistas para supervisionar o bem-estar dos usuários e a segurança da inteligência artificial. O grupo, composto por oito indivíduos, terá a responsabilidade de estabelecer diretrizes para interações saudáveis com a IA, abrangendo todas as faixas etárias de usuários. O anúncio ocorre em meio a um cenário complexo, incluindo o primeiro processo por homicídio culposo envolvendo IA, acusando a OpenAI em um caso de suicídio. Além disso, notícias sobre lixo eletrônico gerado por IA e a viralização de conteúdos no TikTok, como clipes de músicos e animais, chamam a atenção. O anúncio foi feito na última terça-feira (14), mesmo dia em que o CEO da OpenAI, Sam Altman, publicou um longo post no X, alegando que a empresa conseguiu mitigar com sucesso os problemas de saúde mental causados pelo uso de seus produtos de chatbot. Altman reforçou sua posição no dia seguinte, enfatizando que a empresa não é a polícia moral do mundo e que busca estabelecer limites semelhantes aos de outras mídias, como filmes com classificação indicativa. Ele também garantiu que, até dezembro, o ChatGPT permitiria mais conteúdo adulto. A empresa enfrenta atualmente seu primeiro processo por homicídio culposo, após alegações de que o ChatGPT teve participação no suicídio de um adolescente. A OpenAI tem consultado informalmente especialistas desde o início deste ano, especialmente para desenvolver um sistema
OpenAI Cria Conselho Secreto de 8 Especialistas para Salvar Usuários da IA: Veja Quem São!
OpenAI anuncia conselho consultivo para monitorar bem-estar e segurança na IA. Grupo de 8 especialistas definirá padrões para interações saudáveis, após polêmicas e processo por suicídio.

1
visualizações
0
curtidas
0
comentários
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas