Comprova

Áudio de Moraes sobre proibir linguajar evangélico foi feito por IA

Conteúdo foi detectado por duas ferramentas de verificação e um especialista. Perfil que compartilhou áudio já foi checado em outras ocasiões

Imagem da noticia Áudio de Moraes sobre proibir linguajar evangélico foi feito por IA
• Atualizado em

Foi criado com inteligência artificial (IA) um áudio em que uma voz parecida com a do ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes critica o “vocabulário golpista dos evangélicos” e promete proibir falas como “senhor dos senhores, senhor dos exércitos, único Deus e único que é digno”.

SBT News Logo

Siga o SBT News no Google Discover e fique por dentro das últimas notícias.

Siga no Google Discover

Não há registro público de que o ministro tenha feito esse tipo de afirmação. O Comprova procurou notícias sobre o assunto, mas não chegou a nenhum resultado.

O consultor em inteligência artificial Pedro Burgos destacou alguns elementos que indicam a adulteração no áudio. Por exemplo, o fim das frases no áudio nem sempre é pontuado, o que é “um problema comum de modelos geradores de áudio”, segundo Burgos.

O ritmo da fala e a ausência de pausas para respirar também são indícios de uso de IA. “Tem o problema que a acústica da voz fake é meio constante, como se estivesse no vácuo, não tem algo como um eco de uma sala”, acrescentou Burgos.

O conteúdo foi submetido a uma plataforma de detecção de conteúdos gerados por IA chamada Hive Moderation, que indicou uma pontuação agregada de 33,8% de chances de o conteúdo ter sido criado com inteligência artificial. Outra ferramenta, a Hiya/Invid, apontou 93% de chances de o conteúdo ter sido gerado com IA.

Outro forte indício de que o conteúdo não é verdadeiro é que foi publicado inicialmente por um perfil no Instagram que costuma criar áudios falsos de personalidades e políticos.

Quem criou o conteúdo investigado pelo Comprova

O conteúdo foi publicado inicialmente por uma conta que frequentemente divulga áudios falsos. O autor foi verificado pelo Comprova em outras ocasiões (aqui). Ele já havia manipulado a voz de Moraes em outra postagem, como mostrou uma checagem do Estadão Verifica (aqui).

Outras pessoas, como o ministro da Fazenda, Fernando Haddad, e o jornalista William Bonner também foram alvo de falsificações (aqui e aqui). O modo de atuação é sempre o mesmo: o autor das postagens se filma enquanto reproduz os áudios supostamente “vazados” no próprio celular. Ele costuma fazer críticas à personalidade usada.

Depois da publicação feita por esse perfil no dia 4 de dezembro, outras contas destinadas a compartilhar conteúdos de direita divulgaram o conteúdo. A com maior alcance atingiu 380 mil curtidas no Instagram até a publicação dessa checagem. Nos comentários, tanto do vídeo original quanto do vídeo republicado, muitos usuários da rede acreditaram no áudio falso.

O Comprova tentou contato com o primeiro perfil a divulgar o áudio falso, mas a conta não permite novas solicitações de contato. Outro responsável pela disseminação do conteúdo foi procurado, mas não respondeu.

Por que as pessoas podem ter acreditado

O áudio checado foi submetido a técnicas para mascarar possíveis erros que podem indicar o uso de IA. Isso pode ter contribuído para que as pessoas acreditassem na fala. Burgos destacou que, primeiramente, o áudio parece uma gravação. Ele foi criado com IA, mas no vídeo que o divulgou, ele parece ter sido gravado com um microfone.

“Não parece ser o áudio original. Tem algo que parece um corte simulado, como se o microfone se afastasse. Isso dá um tom mais genuíno”, explicou.

Outro ponto destacado por Burgos é o uso de uma música constante, que esconde pontos que poderiam entregar que o áudio é sintético.

Esses componentes foram atrelados a uma figura política que está sempre no centro de teorias da conspiração, o ministro Alexandre de Moraes. Isso pode ter inflado o alcance e o crédito do conteúdo, principalmente entre comunidades que rejeitam a figura do magistrado.

Fontes que consultamos: O Comprova submeteu o vídeo a duas ferramentas de detecção de IA, Hive Moderation e Hiya, da plataforma Invid. Também procuramos o especialista Pedro Burgos e a assessoria de imprensa do STF, que não respondeu à tentativa de contato. Procuramos notícias sobre o conteúdo do áudio, mas nenhuma foi encontrada, o que evidencia que o conteúdo foi inventado.

Por que o Comprova investigou essa publicação: O Comprova, grupo formado por 42 veículos de imprensa brasileiros para combater a desinformação, monitora conteúdos suspeitos publicados em redes sociais e aplicativos de mensagem sobre políticas públicas, saúde, mudanças climáticas, eleições e golpes virtuais e abre investigações para aquelas publicações que obtiveram maior alcance e engajamento. O SBT e SBT News fazem parte dessa aliança. Desconfiou da informação recebida? Envie sua denúncia, dúvida ou boato pelo WhatsApp 11 97045-4984.

Investigação e verificação: Estadão participou desta investigação. A revisão das informações foi realizada pelos veículos O Dia, AFP e Gazeta.

Outras checagens sobre o tema: O Comprova já fez checagens sobre vídeos feitos com IA. Um deles mostrava um vídeo falso de um estudante atacando Lula e Alexandre de Moraes. Outro conteúdo mostrava um áudio atribuído a Haddad sobre “compra de apoio”, mas o Comprova mostrou que não há evidências de que seja real.

Notas da comunidade: Não há notas da comunidade para esse conteúdo.

Últimas Notícias