OpenAI não sabe como funciona o ChatGPT
Em cúpula da UIT, cofundador Sam Altman diz que não compreende por completo seus grandes modelos de linguagem (LLM) indicando falta de “interpretabilidade”
Sam Altman, CEO da startup de inteligência artificial OpenAI, declarou durante a Cúpula Global de IA da União Internacional de Telecomunicações (UIT), que acontece em Genebra, na Suíça, que a empresa não entende por completo seus grandes modelos de linguagem (LLM), provocando um problema de “interpretabilidade”.
“Certamente não resolvemos a interpretabilidade”, disse o cocriador do ChatGPT.
O executivo disse que ainda não descobriu como rastrear os resultados imprecisos dos seus modelos de IA e as decisões que ela toma para chegar às respostas.
Mesmo após a resposta polêmica, e pressionado sob o argumento de que a empresa não deveria lançar novos modelos diante das incertezas, Altman disse de forma tímida que as IAs da OpenAI são "seguras e robustas".
Segundo o site Futurism, o governo do Reino Unido encomendou uma pesquisa com um grupo de pesquisadores sobre os usos da inteligência artificial e o relatório concluiu que os criadores de IA de fato “compreendem pouco sobre como os seus sistemas funcionam”.
O documento aponta que o conhecimento científico sobre como a tecnologia funciona é "muito limitado".
“As técnicas de explicação e interpretabilidade do modelo podem melhorar a compreensão dos pesquisadores e desenvolvedores sobre como funcionam os sistemas de IA de uso geral, mas a pesquisa está no começo”, explica a pesquisa britânica.
A interpretabilidade da IA é um tema recente que traz debates sobre os riscos e os perigos de que uma inteligência artificial geral possa se tornar desonesta, sendo uma grande ameaça de extinção para a humanidade.
Em busca de respostas
A preocupação já assola algumas empresas de inteligência artificial -- que buscam entender a lógica de funcionamento da IA, como por meio do mapeamento dos neurônios artificiais de seus algoritmos.
A Antrhopic anunciou que começou um levantamento sobre o funcionamento interno de seus grandes modelos de linguagem (LLM), como o Claude Sonnet.
A empresa disse em comunicado oficial em seu site que está em busca de entender os modelos, para garantir a segurança de uso da tecnologia.
"A Anthropic fez um investimento significativo em pesquisas de interpretabilidade desde a fundação da empresa, porque acreditamos que compreender profundamente os modelos nos ajudará a torná-los mais seguros. Mas o trabalho realmente apenas começou. Compreender as representações que o modelo usa não nos diz como ele as utiliza; mesmo que tenhamos os recursos, ainda precisamos encontrar os circuitos nos quais eles estão envolvidos."
Fala na cúpula da UIT vem após o anúncio da dissolução da equipe de "superalinhamento" e da criação de uma nova equipe de segurança responsável por controlar os sistemas de IA dos produtos da OpenAI, que será liderada por Altman.
A formação da equipe aconteceu após a saída polêmica de Ilya Sustkever, cofundador e cientista-chefe da OpenAI, que na época apoiou a tentativa de golpe contra Sam Altman no ano passado, devido a sua forma de gestão e foi líder de uma equipe de "superalinhamento" responsável por "dirigir e controlar sistemas de IA muito mais inteligentes do que nós".
O anúncio provocou a renúncia de alguns funcionários, como a pesquisadora de políticas da OpenAI, Gretchen Krueger, que citou preocupações de segurança dos produtos.