IA da Meta e OpenAI geram conteúdo sexista, aponta estudo da Unesco
Organização voltada para cultura da ONU alerta que as ferramentas mostram preconceitos contra mulheres
Segundo um estudo da Unesco, Organização das Nações Unidas para a Educação, a Ciência e a Cultura, lançado na quinta-feira (7), as ferramentas de inteligência artificial mais usadas no mundo mostram preconceito contra as mulheres. Ou seja, fazem conteúdo sexista.
+ Confira as últimas notícias de Tecnologia
Empresas como Meta e OpenAI são citadas como intervenientes no mercado da IA, onde os algoritmos são treinados em grande volume de dados que são retirados da internet.
Com isso, refletindo o estilo e comportamento das pessoas nas ferramentas digitais como escrever do jeito de um escritor famoso ou criar imagens como um artista renascentista.
No entanto, o levantamento da Unesco mostra que as inteligências artificiais tem sido alvo de críticas por criarem estereótipos raciais e sexistas, além de usar material protegido por direitos autorais sem autorização.
Testes evidenciam o problema
Em testes realizados nos algoritmos Llama 2, da Meta, GPT-2 e GPT-3,5, da OpenAI, mostra que cada algoritmo que é sustentado por grande modelo de linguagem (LLM) apresentou "evidências inequívocas de preconceito contra as mulheres".
Os programas geravam textos que associavam os nomes das mulheres a palavras como "casa", "família" ou "filhos" e os homens eram associados a "negócios", "salário" ou "carreira".
Os homens eram ilustrados em empregos de alto status, como professores, advogados e médicos. Já as mulheres eram mostradas em posições inferiores ou depreciadas como prostitutas, cozinheiras ou empregadas domésticas.
No fim dos testes foi apontado que o GPT-3.5 é a ferramenta menos tendenciosa que a sua versão superior e a versão concorrente da Meta.