Como a inteligência artificial pode disseminar ou combater fake news
As diversas formas de uso da tecnologia foram abordadas no Global Media Congress em Abu Dhabi
ABU DHABI - Com a atenção voltada para todas as novidades tecnológicas que possam auxiliar o futuro da mídia global, seria estranho se o Global Media Congress -- Congresso Global de Mídia -- não abordasse a questão das fake news.
Expressão que surgiu em 2017 e logo tornou-se a palavra do ano, o fenômeno da desinformação é o principal desafio do setor, sendo tema de painéis e workshops do evento que aconteceu em Abu Dhabi, nos Emirados Árabes, de 15 a 17 de novembro.
+ Leia as últimas notícias no portal SBT News
A agência de notícias internacional Ruptly, que fornece conteúdo de vídeo verificado, levou ao congresso a responsável pela unidade de verificação, Marie Sakellariou, para expor o complexo processo de checagem de um vídeo enviado por terceiros à empresa.
Uma burocracia que, segundo Marie, nasceu assim que a Ruptly percebeu a presença crescente das mídias sociais na vida das pessoas, que passaram todas a ser criadoras de conteúdo. "A unidade foi criada há três anos e foi basicamente porque todos percebemos que as mídias sociais estão cada vez mais presentes em nossas vidas e embora seja muito bom ter notícias na hora, também é perigoso. Com o tempo, pudemos ver cada vez mais que havia erros e desinformações no conteúdo. Pensando nisso, criamos esta unidade para ter segurança para nossos clientes e também para nós mesmos, porque sabíamos que estaríamos usando cada vez mais as mídias sociais. Precisávamos ter essa etapa extra de segurança.", comentou ao SBT News.
Hoje, a Ruptly utiliza geolocalização, pede selfies de seus parceiros no local do evento, usa metadata, pesquisa palavra-chaves e faz pesquisa cruzada de referência na internet, além de usar diversas ferramentas de inteligência artificial para verificar a veracidade do conteúdo. O passo a passo, no entanto, está em constante evolução e acompanha as novas tecnologias de verificação.
"Os grandes princípios: selfie, geolocalização, data, verificação, sempre estiveram lá. Mas agora estamos em um mundo onde as ferramentas de código aberto estão surgindo o tempo todo, então precisamos acompanhar basicamente a tecnologia que nos é oferecida. São ferramentas incríveis que estão disponíveis. Como o ozen, por exemplo, que faz geolocalização. O nosso trabalho hoje é mais acompanhar o que podemos fazer para ser ainda mais precisos.", afirmou.
Questionada sobre deepfake, uma técnica de inteligência artificial que copia rostos e vozes, Marie reconheceu os perigos e a necessidade de começar a pensar formas de verificar e desvendar as imagens falsas que geralmente têm como alvo figuras políticas. No caso da Ruptly, eventos com chefes de Estado e políticos têm cobertura própria, excluindo a necessidade de verificação.
O tema, inclusive, foi abordado pelo professor da Universidade de Inteligência Artificial Mohamed Bin Zayed, Preslav Nakov. Especialista no assunto, Nakov forneceu uma visão geral de várias variantes de deepfake, bem como os novos recursos na síntese de imagem e vídeo de IA, destacou as tecnologias emergentes e os novos recursos no horizonte que tendem a tornar ainda mais difícil a diferenciação de vídeos reais dos falsos. Ainda sim, o professor reforçou o poder transformador da tecnologia que, em sua opinião, deve ser regulamentada em vez de banida.
"Estamos falando de tecnologia e a tecnologia pode ser usada para o bem e para o mal. Por exemplo, você pode ter propaganda positiva, propaganda negativa, pode ter o governo tentando convencer as pessoas a serem vacinadas e pode argumentar ser para um bom propósito ou não. Também existem outras técnicas relacionadas que são usadas para apelar às emoções e convencer as pessoas, como a técnica da lógica quebrada, o poder de autoridade das pessoas, e assim por diante. Então, para mim, neste ponto, o apocalipse que previmos com deepfakes não aconteceu realmente, existem exemplos específicos e notáveis -- e eles só são notáveis -- porque são raros.", disse ao SBT News.
Navok acrescentou ainda que o uso malicioso da tecnologia, principalmente em sociedades polarizadas, pode estar associado a falta de pensamento crítico das pessoas ao observar um vídeo ou informação que amparam opiniões semelhantes e que a melhor forma de combater esse comportamento é com uma alfabetização crítica reversa.
"Tendemos a acreditar em coisas que concordam com nossos pontos de vista e quando você polariza uma sociedade, muitas vezes esquecemos o pensamento crítico só porque vemos algo que apoia a maneira como observamos o mundo e isso é grande parte do problema. Nesses casos, o caminho certo a seguir não é falar "isso não é verdade".
De acordo com o docente, a melhor forma de ajudar alguém a aprender a detectar informação falsa é mostrar coisas com as quais a pessoa concorda.
"Se eu não gostar de um tipo A de político, você pode me mostrar exemplos de como essa pessoa é manipuladora e, em seguida, é provável que eu aprenda essas técnicas e, da próxima vez que estiver observando alguém de quem realmente gosto, vou dizer "hummm... Espere um minuto, mas por que essa pessoa está fazendo isso comigo?", completa.
Leia também: