Publicidade
Tecnologia

Criadora do ChatGPT proíbe uso da ferramenta em campanhas eleitorais

Ferramentas da empresa já não podem gerar vídeos de pessoas reais, para coibir deep fakes durante as eleições

Imagem da noticia Criadora do ChatGPT proíbe uso da ferramenta em campanhas eleitorais
ChatGPT
Publicidade

A OpenAI, criadora do ChatGPT, anunciou nesta segunda (15) medidas para evitar abusos no uso da Inteligência Artificial nas eleições, como a proibição de seu uso para campanhas eleitorais. A empresa destaca que as novas ações são necessárias para proteger a integridade do pleito das maiores democracias do mundo, que vão às urnas este ano. Os Estados Unidos se preparam para escolher o próximo presidente este ano. No Brasil, haverá eleições municipais.

+ O que é deep fake e como ele pode afetar as eleições

"Queremos ter certeza de que a nossa tecnologia não seja usada de forma a minar esse processo", afirma a nota. A empresa anuncia, ainda, a inclusão de notícias em tempo real em sua plataforma – a versão inicial da IA tinha informações de anos anteriores. Segundo a OpenAI, também serão fornecidas as fontes dessas informações, e seus links, para que os usuários possam avaliar por si mesmos sua confiabilidade.

A DALL.E, ferramenta de criação de imagens, já tem travas contra a geração de vídeos e fotos de pessoas reais, para evitar os chamados deep fakes. A medida deve ser reforçada para evitar que sejam criados vídeos de candidatos com falas falsas que possam levar à desinformação.

"Assim como qualquer outra nova tecnologia, novas ferramentas trazem benefícios e desafios. Eles não têm precedentes e vamos continuar evoluindo nossa abordagem à medida que aprendemos sobre como nossas ferramentas são usadas", afirmou a OpenAI. A empresa disse que reuniu as áreas de segurança de sistema, engenharia e jurídica para investigar e tratar potenciais casos de abuso.

+ Como a relação entre fake news e a política afetam a democracia

Prevenção de abuso e aumento da transparência

A empresa diz que, ao longo dos anos, vem trabalhando com usuários e parceiros externos para avaliar conteúdos e diminuir os riscos. O ChatGPT, de acordo com a OpenAI, já se nega a cumprir algumas tarefas. O DALL.E, por exemplo, não responde a pedidos para gerar imagens de pessoas reais, incluindo candidatos.

Para as eleições, a política de uso deve incluir:

  • Não há permissão para usar as ferramentas de IA da empresa para campanha política ou lobby;
  • Não é permitido criar chatbots que finjam agir como pessoas reais (como candidatos) ou instituições;
  • A plataforma não pode gerar conteúdo que adultere informações sobre o direito de voto e o processo eleitoral;
  • As imagens geradas por IA deverão conter informações sobre qual ferramenta foi usada para elaborá-la. A empresa também está fazendo testes com uma ferramenta para detectar imagens geradas pelo DALL.E e deve liberá-la em breve para jornalistas, plataformas e pesquisadores para melhoria;
  • O ChatGPT vai começar a incluir notícias e também links para as fontes de informação. "A transparência sobre a origem e o equilíbrio na sugestão de fontes pode ajudar os eleitores a avaliar a informação e decidir por si próprios em quem confiar", diz a nota da empresa;
  • Os usuários poderão reportar potenciais violações.

Nos Estados Unidos, a OpenAI fez uma parceria com a Associação Nacional de Secretários de Estado, a mais antiga organização apartidária de servidores públicos, para direcionar os usuários para uma página oficial em caso de perguntas sobre a lei eleitoral ou procedimentos para o dia do pleito, como lugares de votação. Essa ação deve servir de modelo para outros países do mundo.

Por que isso importa?

Com as medidas, a OpenIA tenta evitar o que aconteceu com o Facebook na eleição de Donald Trump em 2016 como presidente dos Estados Unidos. Na época, a plataforma não coibiu a ação de contas falsas da Rússia que, segundo investigações, colaboraram para a derrota da democrata Hillary Clinton para o candidato republicano.

O problema gerou desgastes para a Meta, dona do Facebook, que desde então vem mudando regras para evitar a repetição do problema. Em 2022, por exemplo, a plataforma removeu redes na China e na Rússia acusadas de promoverem campanhas secretas de influência sobre a política norte-americana e a guerra da Ucrânia.

Publicidade

Assuntos relacionados

Política
Publicidade

Últimas Notícias

Publicidade
Publicidade