Funcionários atuais e ex-funcionários da OpenAI e Google DeepMind alertam sobre os "sérios riscos" da IA
Em carta aberta, profissionais pedem mudanças no setor, mais transparência e proteção para quem faz denúncias contra o uso inadequado da tecnologia
O desenvolvimento atual e o futuro da humanidade em relação à inteligência artificial têm gerado muita polêmica e desdobramentos desde o seu avançado e rápido desenvolvimento pelas grandes empresas e startups de tecnologia. Empresas como Meta, Google, OpenAI, Microsoft e outras estão em meio a uma corrida de IA para conquistar um mercado que pode alcançar US$ 1 trilhão (R$ 5,2 trilhões) em receitas em até 10 anos.
Essa disputa entre as gigantes levou vários funcionários atuais e ex-funcionários de empresas de IA como a OpenAI e Google DeepMind a publicarem uma carta aberta intitulada, "O direito de alertar sobre inteligência artificial avançada" sobre as preocupações e os riscos que a tecnologia emergente pode provocar.
Quatro funcionários anônimos da OpenAI e sete ex-funcionários, incluindo Daniel Kokotajlo, Jacob Hilton, William Saunders, Carroll Wainwright e Daniel Ziegler, assinaram a carta. Os signatários também incluíram Ramana Kumar, que trabalhou no Google DeepMind, e Neel Nanda, que trabalha no Google DeepMind e anteriormente trabalhou na Anthropic, além de três cientistas da computação conhecidos por promover o campo da inteligência artificial também endossaram a carta: Geoffrey Hinton, Yoshua Bengio e Stuart Russell.
Na carta disponível na internet, os signatários reforçam que os interesses financeiros dessas empresas criam dificuldades para uma supervisão eficaz.
“Não acreditamos que estruturas personalizadas de governança corporativa sejam suficientes para mudar essa situação", relata a carta.
Os funcionários alertam sobre os riscos da não regulamentação da Inteligência Artificial e suas ameaças, como a propagação da desinformação, aprofundamento das desigualdades existentes, perda de sistemas de IA independentes, e até mesmo a 'extinção da humanidade”.
Pesquisadores da tecnologia encontraram casos em que os geradores de imagens da OpenAI (DALL-E) e Microsoft (Bing Image Creator) produziram imagens com desinformação relacionada às eleições, mesmo com a existência de políticas contra a produção desse tipo de conteúdo.
A carta relata também que as empresas não estão comprometidas em compartilhar informações com os governos sobre as capacidades e limitações de seus sistemas.
E acrescentam que não se pode confiar que essas empresas compartilhem as informações voluntariamente.
Os signatários da carta reforçam que há uma necessidade de reforçar a segurança em torno da IA generativa que pode produzir texto, imagens e áudio semelhantes aos humanos de forma mais barata e rápida.
"Enquanto não houver uma supervisão governamental eficaz destas empresas, os atuais e antigos funcionários estarão entre as poucas pessoas que podem responsabilizá-las perante ao público", alerta trecho da carta.
O grupo relatou também que as empresas de IA possam facilitar um processo para que funcionários e ex-funcionários levantem preocupações relacionadas aos riscos da tecnologia, e que não imponham acordos de confidencialidade que proíbam críticas aos rumos da IA adotados pelas empresas.
"As proteções comuns aos denunciantes são insuficientes porque se concentram em atividades ilegais, ao passo que muitos dos riscos que nos preocupam ainda não estão regulamentados. Alguns de nós tememos razoavelmente diversas formas de retaliação, dado o histórico de tais casos em toda a indústria. Não somos os primeiros a encontrar ou falar sobre essas questões", afirma os signatários da carta aberta.
Outras cartas e especialistas fazem alertas sobre a IA
Cientistas e especialistas têm sinalizado com cartas abertas ou entrevistas sobre a regulação do uso da tecnologia, bem como o uso responsável da IA.
- Em março de 2023, Elon Musk, Steve Wozniak, integrantes do Google e mais de mil pesquisadores assinaram o pacto Future of Life Institute, em que, em carta aberta, pedem uma pausa de seis meses na pesquisa sobre inteligências artificiais (IAs) mais poderosas que o GPT-4, da OpenAI.
"Pausem os experimentos de inteligência artificial", diz a carta.
- Em abril de 2023, cofundador da Microsoft e filantropo Bill Gates se manifestou após a divulgação da carta aberta que defende uma pausa do desenvolvimento da inteligência artificial. Para Gates, a pausa não vai "resolver os desafios" futuros, mas defende que o foco agora é usar a inteligência artificial da melhor forma possível.
"Não acho que pedir a um grupo específico para fazer uma pausa resolva os desafios. Claramente, há enormes benefícios nessas coisas -- o que precisamos fazer é identificar as áreas complicadas", diz Gates para Reuters.
- Em maio de 2023, a organização sem fins lucrativos, mantida com financiamento privado, Center for AI Safety ou Centro pela IA Segura (CAIS), publicou uma carta assinada por mais de 350 signatários que concordam que a inteligência artificial pode acabar com os humanos no planeta.
"Mitigar o risco de extinção da IA -- deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear", diz a carta com apenas 24 palavras.
O SBT News conversou com Dan Hendrycks, diretor do Center for Artificial Intelligence Safety que reforçou suas preocupações com a segurança em IA. Confira a entrevista aqui.
- Em fevereiro de 2024, centenas de acadêmicos, políticos, artistas e líderes de inteligência artificial assinaram e divulgaram uma carta aberta pedindo legislação antideepfake. Eles consideram que os deepfakes são “uma ameaça crescente para a sociedade” e defendem a aplicação geral de três leis criminalizando a pornografia infantil falsa, criminalizando e punindo qualquer pessoa que crie ou facilite conscientemente a disseminação de deepfakes prejudiciais e exigir que os desenvolvedores e distribuidores de software evitem que seus produtos audiovisuais criem deepfakes prejudiciais .
“Se concebidas de forma sensata, essas leis poderiam fomentar empresas socialmente responsáveis e não precisariam de ser excessivamente onerosas”, explica a carta.