OpenAI sugere agência internacional para controlar 'superinteligências'
Artigo publicado pelo CEO da OpenAI defende a regulação de inteligência artificial
RESUMO:
- Os fundadores da OpenAi defendem a formação de uma agência regulatória para inteligência artificial
- Com gestão internacional, a entidade seria capaz de definir os rumos do desenvolvimento da tecnologia
- E a agência teria o papel de definir regras, regulações e definições para gestão responsável da IA
- Sam Altman, Greg Brockman, Ilya Stutskever são responsáveis pelo desenvolvimento do ChatGPT, que popularizou o uso da inteligência artificial
----
Na 2ª feira (22.mai), o CEO da OpenAI, Sam Altman, e mais dois executivos da desenvolvedora do ChatGPT -- o cofundador e CTO Greg Brockman, além do cofundador e cientista Ilya Stutskever -- publicaram uma carta aberta na página da empresa argumentando o que seria ideal para a governança da inteligência artificial. Um dos pontos seria o limite anual para a taxa de crescimento das 'superinteligências'.
+ Leia as últimas notícias de Tecnologia
+ Leia as últimas notícias no portal SBT News
Eles concordam e reconhecem que nos próximos 10 anos os sistemas de inteligência artificial vão superar as habilidades de especialistas na maioria dos domínios de conhecimento.
"A superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado", analisam os fundadores.
E por isso, a OpenAI sugeriu três medidas de governança, para garantir de forma segura a integração suave destas tecnologias com a sociedade.
A sugestão é a criação de um projeto que tome parte de todas as iniciativas atuais ou que os desenvolvedores concordem de forma coletiva na limitação na taxa anual de crescimento da IA, com atuação responsável.
"E, claro, as empresas individuais devem ser mantidas em um padrão extremamente alto de atuação responsável", relatam.
Outro ponto seria a criação de uma agência internacional, como a AIEA (Agência Internacional de Energia Atômica), mas para a regulação das superinteligências.
E esta entidade estaria sujeita à autoridade internacional responsável por inspecionar sistemas, fazer auditorias, testes de conformidade com padrões de segurança, além de impor restrições aos graus de implantação e níveis de segurança, além de demandas relacionadas.
Ela teria o papel de reduzir o risco existencial os interesses individuais, definindo as permissões de uma IA para o interesse coletivo.
"Rastrear o uso de computação e energia pode ajudar bastante e nos dar alguma esperança de que essa ideia possa ser implementada. Como primeiro passo, as empresas poderiam concordar voluntariamente em começar a implementar elementos do que tal agência poderia um dia exigir e, como segundo, países individuais poderiam implementá-lo", relata a carta.
Para isso, as empresas e projetos de código aberto (open source) desenvolvam modelos abaixo de um limite de capacidade, para não estarem sujeitos as regras propostas pela carta, para que não encarem custos adicionais para obter novas licenças ou auditorias.
O terceiro ponto proposto pela organização é que haja uma capacidade técnica para tornar a superinteligência segura para todos no planeta.
"Dados os riscos e as dificuldades, vale a pena considerar por que estamos construindo essa tecnologia", avalia os autores da carta que destacam que o desenvolvimento da inteligência artificial é importante para a humanidade.
A carta também relata que é importante que os rumos dos limites e padrões da tecnologia dos sistemas de inteligência artificial e seus usos sejam decididas de forma democrática, para os usuários terem realmente o controle da tecnologia e do comportamento que ela possa ter.
Os cofundadores da OpenAI explicam que há dois motivos para desenvolver superinteligências: um, é levar a um mundo melhor, que impacte positivamente nas áreas como educação, trabalho criativo e produtividade pessoal, cujo "o crescimento econômico e o aumento da qualidade de vida serão surpreendentes".
Outro ponto que eles relatam é sobre as vantagens e o barateamento do custo de desenvolvimento da inteligência artificial que cai a cada ano.
"Em segundo lugar, acreditamos que seria arriscado e difícil impedir a criação de superinteligência. Como as vantagens são enormes, o custo para construí-la diminui a cada ano, o número de atores que a constroem está aumentando rapidamente e é inerentemente parte do caminho tecnológico em que estamos, interrompê-lo exigiria algo como um regime de vigilância global e mesmo isso não é garantido que funcione. Então temos que acertar"