Lançado no final de setembro de 2025, o aplicativo Sora, que utiliza recursos do Sora 2, permite que usuários criem vídeos com inteligência artificial (IA) e os compartilhem em um formato semelhante ao do TikTok. Apesar disso, o aplicativo tem sido alvo de controvérsias, com relatos de conteúdos violentos, deepfakes de celebridades falecidas e uso inadequado por stalkers, evidenciando o lado obscuro da plataforma. A OpenAI, ciente da situação, recuou e prometeu dar maior controle aos detentores de direitos autorais no Sora. O criador de vídeos da OpenAI, que se tornou mais realista e capaz de gerar áudios, possui seu próprio aplicativo. O "Momento Sora" tem sido marcado por violações de direitos autorais, deepfakes e confusão. Quando o aplicativo foi anunciado, a OpenAI enfatizou que o Sora incorporava diversos recursos para bloquear conteúdos considerados perigosos ou prejudiciais antes mesmo da publicação. A empresa informou em comunicado que isso inclui restrições a conteúdo sexual, violência gráfica envolvendo pessoas reais, propaganda extremista, discurso de ódio e qualquer material que promova automutilação ou transtornos alimentares. No entanto, pouco tempo após o lançamento, vídeos que parecem ter contornado as medidas de proteção da plataforma começaram a circular na internet. Vídeos que mostram violência contra Stephen Hawking, produzidos com o Sora e compartilhados em outras redes sociais, como o X (antigo Twitter), exibem o físico
teórico Stephen Hawking sendo agredido em diversas situações. O cientista, que faleceu em 2018 devido a uma doença do neurônio motor, a esclerose lateral amiotrófica (ELA), utilizava cadeira de rodas desde o final da década de 1960. Um dos conteúdos mostra o físico sendo agredido em um ringue por um lutador de UFC. Outras publicações geradas por IA mostram Hawking em apresentações de luta livre, sendo pisoteado por um touro e até mesmo atacado por um crocodilo. Além de violentos, esses conteúdos levantam dúvidas sobre as proteções do Sora contra o uso de imagens de pessoas falecidas na geração de vídeos, um tema sobre o qual a OpenAI ainda não se posicionou oficialmente. Até o momento, a empresa apenas informou que imagens de celebridades e figuras governamentais não podem ser utilizadas sem consentimento, a menos que elas mesmas façam o upload e autorizem o uso. Além de Hawking, imagens de outras celebridades falecidas estão sendo usadas para criar vídeos de IA no aplicativo. Entre elas, o ator e comediante Robin Williams. Os vídeos chegaram até sua filha, Zelda Williams, que publicou um desabafo em sua conta oficial no Instagram sobre o uso indevido da imagem do pai. Zelda escreveu nos stories: “Por favor, parem de me enviar vídeos do papai feitos com IA. Parem de acreditar que eu quero ver ou que vou entender, eu não quero e não vou entender”. Na sequência, ela criticou o uso da tecnologia, afirmando que conteúdos que reciclam o passado para gerar uma “centopeia humana de conteúdo” não podem ser chamados de futuro. Zelda enfatizou: “Você não está fazendo arte; está fazendo salsichas nojentas e superprocessadas com a vida de seres humanos, com a história da arte e da música, e depois enfiando-as goela abaixo de outra pessoa, na esperança de que ela te dê um joinha e curta. Que nojo”. Outra personalidade que aparece em vídeos criados no Sora é Richard Nixon, ex-presidente dos Estados Unidos. Ele se enquadraria nas restrições impostas pelo aplicativo a figuras governamentais, mas aparentemente o mecanismo não se estende a pessoas já falecidas. Também circulam na internet vídeos com interações entre artistas mortos, como Elvis Presley cantando com Marilyn Monroe. O rapper Tupac Shakur também aparece em conteúdos ao lado de Michael Jackson, The Notorious B.I.G. e até do ativista norte-americano Malcolm X. Os recursos do Sora também estão sendo utilizados por um stalker da jornalista Taylor Lorenz, responsável pela newsletter User Magazine. Em um relato publicado no X, ela afirmou que um “perseguidor psicótico” foi convidado para testar o app e vem gerando vídeos de IA com sua imagem. A jornalista escreveu: “Ainda bem que o Sora tem a opção de bloquear e excluir conteúdo não aprovado com a minha imagem. Este é um homem perigoso que administra centenas (sim, centenas) de contas dedicadas a mim”. Lorenz afirmou que a IA está “alimentando os delírios” do seu perseguidor, acrescentando que ele já contratou fotógrafos para vigiá-la, aparece em eventos de que participa e se passa por amigos e familiares para obter informações pessoais. Casos como o de Lorenz, somados ao uso indevido da imagem de personalidades falecidas, mostram que o aplicativo da empresa referência em IA ainda carece de mecanismos eficazes de moderação e controle de conteúdo.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Canaltech
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas