Publicidade
Tecnologia

OpenAI avalia uso de nudez em vídeos gerados pelo Sora

CTO da empresa alega que criativos poderão usar o recurso e que esse tipo de imagem não será restrito na IA de vídeo

Imagem da noticia OpenAI avalia uso de nudez em vídeos gerados pelo Sora
• Atualizado em
Publicidade

Em entrevista ao jornal de economia Wall Street Journal, a CTO da OpenAI, Mira Murati analisou que não tem certeza sobre o uso de nudez no material de vídeo que é produzido pela IA generativa de vídeo Sora.

Para Murati, a nudez é útil para criação porque "há ambientes criativos em que os artistas podem querer ter mais controle sobre isso".

“Atualmente, estamos trabalhando com artistas e criadores de diferentes campos, para entender o que é útil e qual nível de flexibilidade a ferramenta deve fornecer”, explica a executiva.

Polêmica com Taylor Swift

Taylor Swift foi vítima de deepfake em vídeos pornográficos | Facebook/Taylor Swift
Taylor Swift foi vítima de deepfake em vídeos pornográficos | Facebook/Taylor Swift

No começo do ano, o X (antigo Twitter) teve que correr para cortar a circulação de deepfakes com imagens da cantora Taylor Swift em situações e cenas pornográficas.

+ Taylor Swift é vítima de falsos nudes criados por Inteligência Artificial (IA); entenda

Após essa situação, a nudez na inteligência artificial tornou-se alvo de críticas, pois, qualquer criador mal-intencionado pode usar a imagem de qualquer pessoa e coloca-la em situações no qual a cantora também foi exposta.

O AI Policy Institute (AIPI) fez um levantamento nos Estados Unidos e mostrou que 77% dos entrevistados consideram que devem existir regras e restrições ao uso de ferramentas de IA como a Sora antes da liberação ao público.

E, 84% apoiam a aplicação de leis duras para criminalizar a criação de deepfakes pornográficos sem autorização.

Brasil tem projeto de lei contra isso

Na Câmara dos Deputados tramita o Projeto de Lei 370/24, de autoria da deputada federal Jandira Feghali (PCdoB/RJ) em que a pena seja aumentada em caso de uso de inteligência artificial para alterar o modificar imagem e som de vítima, sendo considerado agravante no crime de violência psicológica contra mulher.

O crime de violência psicológica contra a mulher é tipificado atualmente no Código Penal como causar dano emocional que a prejudique e perturbe seu pleno desenvolvimento ou que vise a degradar ou a controlar suas ações, comportamentos, crenças e decisões.

Para ser enquadrado nesse crime, o infrator pode usar de ameaça, constrangimento, humilhação, manipulação, isolamento, chantagem, ridicularização, limitação do direito de ir e vir ou qualquer outro meio que cause prejuízo à saúde psicológica e à autodeterminação da mulher.

Se aprovado, pena vai de 6 meses a 2 anos de reclusão e multa, com aumento de 50% na dosemetria da pena nestes casos de abuso.

Sora está em testes

Ainda na entrevista de Murati ao WSJ, é explicado que o Sora será lançado para o público ainda neste ano.

A ferramenta está em teste e é avaliada por especialistas em desinformação, discurso de ódio e preconceito.

Ainda não há uma data para a liberação da ferramenta.

Publicidade

Últimas Notícias

Publicidade