“Deepfakes devem agravar crimes digitais no curto prazo”, alerta especialista
Após acordo da União Europeia para banir deepfakes sexuais, especialista alerta que avanço da IA amplia riscos de golpes, assédio e chantagem


Vicklin Moraes
Na última semana, os Estados-membros e o Parlamento Europeu firmaram um acordo para banir ferramentas de Inteligência Artificial (IA) capazes de gerar imagens sexuais falsas, as chamadas deepfakes, sem o consentimento das vítimas.
Para entender os impactos da decisão e avaliar o nível de preparo do Brasil diante dessa tecnologia, o SBT News ouviu Cristiano Vicente, especialista em inovação e segurança cibernética e diretor de inovação da Grownt.
Segundo Vicente, a decisão da UE é um marco regulatório importante. "Essa medida sinaliza que a Europa quer tratar o uso indevido de IA como uma questão de segurança, privacidade e integridade da imagem. O banimento dificulta a oferta pública de serviços de pornografia falsa, pressionando plataformas e desenvolvedores a adotarem mecanismos mais rígidos de moderação e rastreabilidade", explica.
No entanto, o especialista ressalta que a eficácia depende de cooperação internacional, já que o conteúdo pode migrar para países fora do bloco europeu, mantendo-se acessível a usuários de diversas regiões.
Sobre o fato de mulheres serem as principais vítimas, Vicente pontua que a tecnologia apenas amplia desigualdades históricas.
"O crime explora vulnerabilidades já existentes. O deepfake pornográfico é usado para silenciar, intimidar e desmoralizar a mulher. A aparência de realidade que a IA oferece potencializa o constrangimento e o dano reputacional", afirma.
O Brasil está preparado?
Para o especialista, o Brasil possui instrumentos jurídicos importantes, como a Lei nº 12.737/2012, mas ainda corre atrás do prejuízo. "O país tem bases legais, mas o desafio da IA é a escala e a velocidade. A resposta jurídica costuma ser mais lenta que a criação do dano", destaca.
Vicente aponta que a principal lacuna no Brasil é a falta de uma norma específica que defina deveres claros para as plataformas e protocolos de remoção rápida de conteúdo.
"O PL 2.338/2023, o Marco Legal da Inteligência Artificial, poderia suprir essa lacuna, mas corre o risco de perder prioridade em ano eleitoral", alerta.
Guia para a vítima: o que fazer?
Ao identificar a disseminação de uma imagem falsa, o especialista orienta:
- Preservação: Salve links, capturas de tela (com data), perfis envolvidos e mensagens associadas.
- Denúncia: Solicite a remoção imediata nas plataformas e registre um Boletim de Ocorrência.
- Apoio: Busque suporte jurídico e psicológico. "Quanto mais rápida a reação, menor a propagação do material", reforça.
Identificando manipulações
Embora as ferramentas de IA estejam cada vez mais sofisticadas, Vicente aponta sinais que podem denunciar uma fraude:
- Erros anatômicos: Mãos com dedos estranhos, olhos ou dentes com aparência artificial.
- Inconsistências físicas: Sombras incoerentes ou detalhes de fundo que não fazem sentido.
- Procedência: Desconfie de conteúdos sensacionalistas que circulam sem uma fonte oficial. Na dúvida, não confie apenas na observação visual: cheque a reputação de quem publicou.
Para o especialista, o avanço da IA tende a agravar o cenário nos próximos anos.
“A tendência é de agravamento no curto prazo. A IA reduz tempo, custo e barreiras técnicas para produzir conteúdos falsos cada vez mais convincentes, ampliando o alcance de golpes, assédio e chantagem, sobretudo contra mulheres, adolescentes e figuras públicas. Ao mesmo tempo, há avanços em detecção, perícia e regulação, ainda que em ritmo inferior ao da evolução das ferramentas. A corrida entre abuso e proteção, porém, está longe de terminar", conclui









