Publicidade
Tecnologia

OpenAI avalia uso de nudez em vídeos gerados pelo Sora

CTO da empresa alega que criativos poderão usar o recurso e que esse tipo de imagem não será restrito na IA de vídeo

Imagem da noticia OpenAI avalia uso de nudez em vídeos gerados pelo Sora
Publicidade

Em entrevista ao jornal de economia Wall Street Journal, a CTO da OpenAI, Mira Murati analisou que não tem certeza sobre o uso de nudez no material de vídeo que é produzido pela IA generativa de vídeo Sora.

Para Murati, a nudez é útil para criação porque "há ambientes criativos em que os artistas podem querer ter mais controle sobre isso".

“Atualmente, estamos trabalhando com artistas e criadores de diferentes campos, para entender o que é útil e qual nível de flexibilidade a ferramenta deve fornecer”, explica a executiva.

Polêmica com Taylor Swift

Taylor Swift foi vítima de deepfake em vídeos pornográficos | Facebook/Taylor Swift
Taylor Swift foi vítima de deepfake em vídeos pornográficos | Facebook/Taylor Swift

No começo do ano, o X (antigo Twitter) teve que correr para cortar a circulação de deepfakes com imagens da cantora Taylor Swift em situações e cenas pornográficas.

+ Taylor Swift é vítima de falsos nudes criados por Inteligência Artificial (IA); entenda

Após essa situação, a nudez na inteligência artificial tornou-se alvo de críticas, pois, qualquer criador mal-intencionado pode usar a imagem de qualquer pessoa e coloca-la em situações no qual a cantora também foi exposta.

O AI Policy Institute (AIPI) fez um levantamento nos Estados Unidos e mostrou que 77% dos entrevistados consideram que devem existir regras e restrições ao uso de ferramentas de IA como a Sora antes da liberação ao público.

E, 84% apoiam a aplicação de leis duras para criminalizar a criação de deepfakes pornográficos sem autorização.

Brasil tem projeto de lei contra isso

Na Câmara dos Deputados tramita o Projeto de Lei 370/24, de autoria da deputada federal Jandira Feghali (PCdoB/RJ) em que a pena seja aumentada em caso de uso de inteligência artificial para alterar o modificar imagem e som de vítima, sendo considerado agravante no crime de violência psicológica contra mulher.

O crime de violência psicológica contra a mulher é tipificado atualmente no Código Penal como causar dano emocional que a prejudique e perturbe seu pleno desenvolvimento ou que vise a degradar ou a controlar suas ações, comportamentos, crenças e decisões.

Para ser enquadrado nesse crime, o infrator pode usar de ameaça, constrangimento, humilhação, manipulação, isolamento, chantagem, ridicularização, limitação do direito de ir e vir ou qualquer outro meio que cause prejuízo à saúde psicológica e à autodeterminação da mulher.

Se aprovado, pena vai de 6 meses a 2 anos de reclusão e multa, com aumento de 50% na dosemetria da pena nestes casos de abuso.

Sora está em testes

Ainda na entrevista de Murati ao WSJ, é explicado que o Sora será lançado para o público ainda neste ano.

A ferramenta está em teste e é avaliada por especialistas em desinformação, discurso de ódio e preconceito.

Ainda não há uma data para a liberação da ferramenta.

Publicidade

Últimas Notícias

Publicidade