Ferramentas de vídeo com inteligência artificial (IA) agora levantam sérios riscos legais e de propriedade, conforme aponta um especialista. A OpenAI afirma que o Sora 2 apoia a criatividade, mas as críticas são intensas. Vídeos gerados por IA podem democratizar a arte ou destruí-la completamente.
O Sora 2, criador de vídeos de IA generativa da OpenAI, foi lançado há cerca de duas semanas e já está causando polêmica. SpongeBob cozinhando metanfetamina. Ronald McDonald fugindo do Batman enquanto carros de polícia perseguem. A ideia é clara: quando se dá às pessoas a chance de criar o que quiserem com pouco esforço, o resultado pode ser inusitado. Indivíduos menos maduros podem usar a ferramenta para criar conteúdos inadequados ou bizarros, enquanto outros podem usá-la de forma oportunista, gerando vídeos para obter lucro ou usando figuras conhecidas para endossos falsos.
O autor do artigo testou o Sora 2, gerando um vídeo com o CEO da OpenAI, Sam Altman, afirmando que a PAI3 oferece a experiência de IA que a OpenAI não pode. Ao clicar no botão de remix, o autor criou um vídeo de Altman elogiando o ZDNET, demonstrando a capacidade da tecnologia. O vídeo foi apresentado como um exemplo editorial, sem representar que Altman realmente tinha cabelo azul ou uma camiseta verde.
Neste artigo, são abordadas três questões principais: questões legais e de direitos, o impacto na criatividade e o desafio de distinguir a realidade dos deepfakes. Inicialmente
, o Sora 2 não tinha barreiras, permitindo que os usuários criassem qualquer coisa. A empresa começou a contatar detentores de direitos de Hollywood, informando sobre o lançamento iminente do Sora 2 e dando a eles a opção de exclusão. A Motion Picture Association (MPA) expressou preocupações sobre a proliferação de vídeos que infringem os direitos dos membros. A OpenAI respondeu que em breve oferecerá mais controle aos detentores de direitos sobre a geração de personagens, mas a MPA enfatizou a responsabilidade da OpenAI em prevenir a infração.
A OpenAI está ciente dessas questões e forneceu recursos como o Sora 2 System Card, que descreve as capacidades e limitações do software. A empresa também descreve cinco temas principais em relação à segurança e aos direitos: controle de semelhança baseado em consentimento, proteção de propriedade intelectual e áudio, iniciativas de proveniência e transparência, políticas de uso que proíbem o uso indevido e recursos e aplicação de políticas.
Em relação à propriedade e à responsabilidade, Sean O'Brien, fundador do Yale Privacy Lab, explicou que o usuário humano, e muitas vezes sua organização, assume a responsabilidade pelo uso da saída gerada por IA. O'Brien resumiu que a lei dos EUA está formando uma doutrina de quatro partes: apenas obras criadas por humanos são protegidas por direitos autorais; as saídas de IA generativa são amplamente consideradas não protegidas por direitos autorais e de domínio público por padrão; o humano ou organização que utiliza sistemas de IA é responsável por qualquer infração no conteúdo gerado; e treinar em dados protegidos por direitos autorais sem permissão é legalmente passível de ação.
A criatividade, conforme definido, envolve trazer algo à existência ou produzir por meio de habilidade imaginativa, independentemente do meio utilizado. A questão da criatividade é desafiadora no mundo da IA generativa. O US Copyright Office argumenta que apenas obras criadas por humanos podem ser protegidas por direitos autorais. O autor compara sua experiência com fotografia e o uso de ferramentas digitais como Photoshop, questionando onde está a linha entre a ferramenta, o meio e o humano.
Bert Monroy, ilustrador comercial, observa que a IA está mudando o cenário criativo, permitindo que clientes criem versões de trabalhos em minutos com baixo custo. Sora 2 representa o próximo passo na união da imaginação e da criatividade digital. A democratização das habilidades por meio da IA é preocupante para aqueles que construíram suas carreiras nessas áreas. A autora Maly Ly sugere que a solução não é a proteção, mas a participação, onde cada artista, voz e estilo visual que treina ou inspira um modelo seja rastreável e recompensado por meio de fluxos de valor transparentes.
A introdução de novas tecnologias também altera nossa percepção da realidade. Deepfakes, imagens, áudios ou vídeos que deturpam a realidade, tornam-se um desafio. Exemplos históricos, como a transmissão de rádio de Orson Welles em 1938, demonstram como a tecnologia pode distorcer a realidade. A filha de Robin Williams, Zelda, expressou sua dor ao ver deepfakes de seu pai. Embora as empresas estejam implementando medidas para detectar e sinalizar conteúdo gerado por IA, o problema não é novo. O autor conclui que será necessário usar o discernimento para identificar imagens e vídeos fabricados.
Richard Santalesa, membro fundador do SmartEdgeLaw Group, destaca a tensão entre criação e proteção da propriedade intelectual. Ele explica que a OpenAI pode enfrentar litígios devido aos direitos autorais. Santalesa aponta que os termos de uso do Sora 2 proíbem o uso que infrinja direitos, ressaltando as responsabilidades do usuário. A questão principal é como gerenciar e controlar a IA.
A OpenAI afirma que suas ferramentas de geração de vídeo foram projetadas para apoiar a criatividade humana, não para substituí-la. O autor convida os leitores a compartilhar suas opiniões sobre o uso de ferramentas de IA, a responsabilidade dos criadores, o uso de obras criativas existentes para treinar sistemas de IA e se o vídeo generativo está expandindo ou erodindo a autenticidade.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Zdnet
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas