Deepnude: imagens íntimas criadas com uso de IA agravam violência contra mulheres
No Rio de Janeiro, registros de divulgação não autorizada de intimidade sexual aumentaram 300%
SBT Brasil
No Rio de Janeiro, 87,8% dos registros de divulgação não autorizada de intimidade sexual envolvem mulheres, o que representa quase oito em cada dez casos. Entre 2020 e 2024, as denúncias desse tipo de crime aumentaram 300%, segundo dados do Instituto de Segurança Pública. O levantamento aponta ainda que 39,9% dos autores das violações são ex-companheiros das vítimas.
Um dos casos mais recentes é o da jornalista Julie Yukari, que denunciou ter uma foto sua adulterada com o uso de inteligência artificial e republicada sem roupa nas redes sociais. A ocorrência é investigada pela polícia e veio à tona no primeiro dia de 2026.
Julie relatou que as imagens originais eram fotografias comuns publicadas em seus perfis pessoais. “Eram fotos de biquíni, blusa de time sem calça, roupas curtas”, afirmou. Em uma das imagens, feita no dia 31 de dezembro, ela aparece deitada na cama ao lado de sua gata de estimação.
Segundo a jornalista, a circulação da imagem manipulada causou forte impacto emocional. O caso ilustra o avanço de uma prática criminosa conhecida como deepnude, na qual ferramentas de inteligência artificial são usadas para gerar imagens íntimas falsas sem o consentimento da vítima.
No Brasil, a produção e a divulgação de conteúdo erótico ou pornográfico por meio de manipulação digital, sem autorização, configuram crime, com pena que pode chegar a um ano de prisão. O projeto de lei 370/2024, já aprovado pela Câmara dos Deputados e em análise no Senado, prevê o aumento da punição, podendo triplicar a pena atual.
Especialistas alertam que esse tipo de conteúdo é frequentemente utilizado como instrumento de humilhação, difamação e chantagem. Para o advogado Luiz Augusto D'Urso, especialista em direito digital, o enfrentamento do problema não pode se limitar à punição dos autores.
“É esperado que as plataformas criem filtros que impeçam a geração desse tipo de conteúdo. Sempre que um usuário der esse comando a uma inteligência artificial, a ferramenta deveria bloquear a produção. Com o avanço das leis, haverá maior pressão para que as plataformas não permitam a criação de material criminoso e ilícito”, afirmou.
A preocupação com o uso indevido da inteligência artificial já mobiliza governos de diferentes países. Estados Unidos e Reino Unido manifestaram alerta em relação ao uso da plataforma Grok para a produção de conteúdos ilegais. O governo da França afirmou que a ferramenta viola a Lei de Serviços Digitais da União Europeia, enquanto o Ministério de Eletrônica e Tecnologia da Informação da Índia exigiu uma revisão dos mecanismos de segurança.







