Inteligências artificiais poderão "se reproduzir e sobreviver na natureza", diz CEO da Anthropic
Segundo Dario Amodei, entre 2025 e 2028, IAs poderão ser autônomas e pode representar risco geopolítico e militar
O fundador e principal executivo da Anthropic, Dario Amodei, falou ao podcast do jornal norte-americano The New York Times que as inteligências artificiais poderão atingir um nível de autonomia em que elas poderão sobreviver e se multiplicar sem interferência humana.
Amodei ainda foi enfático na previsão tenebrosa, avaliando que o momento de virada das IAs diante da humanidade seria entre 2025 a 2028.
Para ele essa mudança terá impactos militares, permitindo vantagens no campo geopolítico.
“Estou falando mesmo de futuro próximo, não daqui a 50 anos”, disse Amodei ao jornalista Ezra Klein, do The New York Times.
A Anthropic foi fundada por Dario Amodei, sua irmã Daniela e outros cinco ex-funcionários da OpenAI e luta pelo desenvolvimento da IA responsável.
Amodei trabalhou na OpenAI entre 2016 e 2021, foi vice-presidente de pesquisa e contribuiu com o desenvolvimento do GPT-3. Ele saiu da empresa após discordar das decisões que a empresa do ChatGPT estava tomando.
A Antrhopic, que estabelece níveis de segurança para IAs, tal como os níveis de biossegurança de laboratório de virologia, para escalar o tamanho de uma potencial ameaça da tecnologia.
A empresa acredita que as inteligências artificiais estão no nível 2, ou seja, os sistemas podem dar informações perigosas para construção de armas de destruição em massa. No entanto, essas informações seriam pouco confiáveis, sendo assim, um risco menor.
Para a empresa, o nível 3, seria alcançado em 2025, quando as IAs podem ser utilizada no desenvolvimento de armas biológicas de cibernéticas.
Já o nível 4 seria uma hipótese, cujo seria o momento das inteligências artificiais terem autonomia e capacidade de persuasão. Esse cenário, segundo o executivo da Anthropic, aconteceria entre 2025 e 2028.
"Estão muito perto de serem capazes de se reproduzir e sobreviver na natureza", alerta o executivo.
Ele aponta por exemplo que países como Coreia do Norte, China ou Rússia poderiam aprimorar suas capacidades militares por meio da IA de forma exponencial.
"Nos preocuparíamos que a Coreia do Norte, a China ou a Rússia pudessem melhorar significativamente as suas capacidades ofensivas em várias áreas militares com IA, de uma forma que lhes daria uma vantagem substancial a nível geopolítico”, argumenta Amoden.
A Anthropic já recebeu investimentos generosos das gigantes Amazon e Google. O seu carro-chefe é o chatbot Claude, que visa ser um modelo de inteligência artificial mais ético que seus grandes concorrentes como OpenAi, Copilot, Gemini, MetaAI e outros.