Criadora do ChatGPT proíbe uso da ferramenta em campanhas eleitorais
Ferramentas da empresa já não podem gerar vídeos de pessoas reais, para coibir deep fakes durante as eleições
SBT News
A OpenAI, criadora do ChatGPT, anunciou nesta segunda (15) medidas para evitar abusos no uso da Inteligência Artificial nas eleições, como a proibição de seu uso para campanhas eleitorais. A empresa destaca que as novas ações são necessárias para proteger a integridade do pleito das maiores democracias do mundo, que vão às urnas este ano. Os Estados Unidos se preparam para escolher o próximo presidente este ano. No Brasil, haverá eleições municipais.
+ O que é deep fake e como ele pode afetar as eleições
"Queremos ter certeza de que a nossa tecnologia não seja usada de forma a minar esse processo", afirma a nota. A empresa anuncia, ainda, a inclusão de notícias em tempo real em sua plataforma – a versão inicial da IA tinha informações de anos anteriores. Segundo a OpenAI, também serão fornecidas as fontes dessas informações, e seus links, para que os usuários possam avaliar por si mesmos sua confiabilidade.
A DALL.E, ferramenta de criação de imagens, já tem travas contra a geração de vídeos e fotos de pessoas reais, para evitar os chamados deep fakes. A medida deve ser reforçada para evitar que sejam criados vídeos de candidatos com falas falsas que possam levar à desinformação.
"Assim como qualquer outra nova tecnologia, novas ferramentas trazem benefícios e desafios. Eles não têm precedentes e vamos continuar evoluindo nossa abordagem à medida que aprendemos sobre como nossas ferramentas são usadas", afirmou a OpenAI. A empresa disse que reuniu as áreas de segurança de sistema, engenharia e jurídica para investigar e tratar potenciais casos de abuso.
+ Como a relação entre fake news e a política afetam a democracia
Prevenção de abuso e aumento da transparência
A empresa diz que, ao longo dos anos, vem trabalhando com usuários e parceiros externos para avaliar conteúdos e diminuir os riscos. O ChatGPT, de acordo com a OpenAI, já se nega a cumprir algumas tarefas. O DALL.E, por exemplo, não responde a pedidos para gerar imagens de pessoas reais, incluindo candidatos.
Para as eleições, a política de uso deve incluir:
- Não há permissão para usar as ferramentas de IA da empresa para campanha política ou lobby;
- Não é permitido criar chatbots que finjam agir como pessoas reais (como candidatos) ou instituições;
- A plataforma não pode gerar conteúdo que adultere informações sobre o direito de voto e o processo eleitoral;
- As imagens geradas por IA deverão conter informações sobre qual ferramenta foi usada para elaborá-la. A empresa também está fazendo testes com uma ferramenta para detectar imagens geradas pelo DALL.E e deve liberá-la em breve para jornalistas, plataformas e pesquisadores para melhoria;
- O ChatGPT vai começar a incluir notícias e também links para as fontes de informação. "A transparência sobre a origem e o equilíbrio na sugestão de fontes pode ajudar os eleitores a avaliar a informação e decidir por si próprios em quem confiar", diz a nota da empresa;
- Os usuários poderão reportar potenciais violações.
Nos Estados Unidos, a OpenAI fez uma parceria com a Associação Nacional de Secretários de Estado, a mais antiga organização apartidária de servidores públicos, para direcionar os usuários para uma página oficial em caso de perguntas sobre a lei eleitoral ou procedimentos para o dia do pleito, como lugares de votação. Essa ação deve servir de modelo para outros países do mundo.
Por que isso importa?
Com as medidas, a OpenIA tenta evitar o que aconteceu com o Facebook na eleição de Donald Trump em 2016 como presidente dos Estados Unidos. Na época, a plataforma não coibiu a ação de contas falsas da Rússia que, segundo investigações, colaboraram para a derrota da democrata Hillary Clinton para o candidato republicano.
O problema gerou desgastes para a Meta, dona do Facebook, que desde então vem mudando regras para evitar a repetição do problema. Em 2022, por exemplo, a plataforma removeu redes na China e na Rússia acusadas de promoverem campanhas secretas de influência sobre a política norte-americana e a guerra da Ucrânia.