Mil especialistas alertam: "Pausem os experimentos de inteligência artificial"
Grupo com Musk, Wosniak e outros afirma que IA causa riscos à humanidade e pedem regulação
O bilionário Elon Musk, o cofundador da Apple, Steve Wozniak, integrantes do Google e mais de mil pesquisadores, especialistas e executivos do setor de tecnologia assinaram o pacto no Future of Life Institute, onde em carta aberta, pedem uma pausa de seis meses na pesquisa sobre inteligências artificiais (IA) mais poderosas que o GPT-4, da OpenAI, que foi lançado este mês.
+ Leia as últimas notícias no portal SBT News
+ Leia as últimas notícias de Tecnologia
A carta alerta para "os profundos ricos para a humanidade" e pedem que sejam definidos modelos de governança, como criação de órgãos regulatórios, meios de supervisão de sistemas e de ferramentas que ajudam a distinguir o que é criado pela IA.
O grupo pede também a responsabilização por danos causados pela inteligência artificial e a criação de instituições que possam fazer frente às "dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará"
Os professores Stuart Russel, da Universidade de Montreal, Youshua Bengio, de Berkeley, o escritor Yuval Noah Harari, além dos cofundadores do Pinterest, Evan Sharp, e do Skype, Jaan Tallinn, também assinaram o documento, que aponta uma corrida descontrolada para desenvolver tecnologia cada vez mais sofisticada, sem previsão dos riscos envolvidos.
"Nos últimos meses, vimos os laboratórios de IA se lançando em uma corrida descontrolada para desenvolver e implantar cérebros digitais cada vez mais potentes que ninguém, nem mesmo seus criadores, podem entender, prever, ou controlar, de forma confiável", diz a carta.
A carta foi publicada pelo Future of Life Institute, que é um grupo sem fins lucrativos, que tem Elon Musk como um dos financiadores e a organização é liderada por Max Tegmark, professor e pesquisador de IA, do Instituto de Tecnologia de Massachussetts (MIT).
? We're calling on AI labs to temporarily pause training powerful models!
? Future of Life Institute (@FLIxrisk) March 29, 2023
A short ?on why we're calling for this - (1/8)
Em entrevista recente ao canal de notícias ABC News, Sam Altman, diretor da OpenAI, disse ter "um pouco de medo" de que sua ferramenta seja utilizada para "desinformação em larga escala ou para ciberataques" e ainda reforçou que a empresa precisa tempo de se adaptar.
Acesse a íntegra da carta aberta (em inglês) clicando aqui.