IA da Meta e OpenAI geram conteúdo sexista, aponta estudo da Unesco
Organização voltada para cultura da ONU alerta que as ferramentas mostram preconceitos contra mulheres

Cido Coelho
Segundo um estudo da Unesco, Organização das Nações Unidas para a Educação, a Ciência e a Cultura, lançado na quinta-feira (7), as ferramentas de inteligência artificial mais usadas no mundo mostram preconceito contra as mulheres. Ou seja, fazem conteúdo sexista.
Com isso, refletindo o estilo e comportamento das pessoas nas ferramentas digitais como escrever do jeito de um escritor famoso ou criar imagens como um artista renascentista.
No entanto, o levantamento da Unesco mostra que as inteligências artificiais tem sido alvo de críticas por criarem estereótipos raciais e sexistas, além de usar material protegido por direitos autorais sem autorização.
Testes evidenciam o problema
Os programas geravam textos que associavam os nomes das mulheres a palavras como "casa", "família" ou "filhos" e os homens eram associados a "negócios", "salário" ou "carreira".
Os homens eram ilustrados em empregos de alto status, como professores, advogados e médicos. Já as mulheres eram mostradas em posições inferiores ou depreciadas como prostitutas, cozinheiras ou empregadas domésticas.
No fim dos testes foi apontado que o GPT-3.5 é a ferramenta menos tendenciosa que a sua versão superior e a versão concorrente da Meta.









