Inteligência artificial: A nova guardiã da ética corporativa?
Quais valores humanos a IA deve se basear? Deve seguir uma ética utilitária ou deontológica?
* Integridade e Desenvolvimento é uma coluna do Centro de Estudos em Integridade e Desenvolvimento (CEID), do Instituto Não Aceito Corrupção (INAC). Este artigo reflete única e exclusivamente a opinião do(a) autor(a) e não representa a visão do CEID e INAC. Os artigos têm publicação semanal.
A inteligência artificial (IA) está ganhando proporções cada vez mais surpreendentes. Um exemplo é a iniciativa da empresa chinesa NetDragon, que nomeou uma IA, chamada Tang Yu, como presidente-executiva.
+ Conheça os colunistas do SBT News
Tang Yu é a primeira IA a ocupar um cargo executivo no mundo e foi recentemente premiada como "Melhor Funcionário Virtual do Ano da China" no Fórum e Conferência de Imprensa da Indústria Humana Digital da China de 2024. Mas será que suas decisões serão sempre éticas?
Será que chegou a hora de a IA também ocupar as posições de Compliance Officer?
A questão central é: a quais valores humanos a IA deve se basear? Deve seguir uma ética utilitária (como John Stuart Mill e Jeremy Bentham) ou deontológica (como Immanuel Kant e John Rawls)? Com tanta capacidade de processar dados, será que a motivação de suas decisões será sempre transparente? Deve ser como nós ou melhor que nós?
Alan Turing, pioneiro da computação, também levantou questões éticas sobre a IA ao questionar a quais valores humanos a tecnologia deve se alinhar.
Essas questões permanecem sem resposta. Kate Crawford, cofundadora do instituto de pesquisa AI Now da Universidade de Nova York, argumenta que os sistemas de IA estão inseridos nos mundos social, político, cultural e econômico, moldados por humanos e suas instituições.
Debate sobre a IA
A maior parte do debate atual sobre IA e a lei foca em como a tecnologia pode desafiar os paradigmas regulatórios predominantes. Segundo a professora Antara Haldar, da Universidade de Cambridge, uma preocupação é o "efeito rainha vermelha" (alusão a Alice no País das Maravilhas), que descreve a dificuldade de manter a regulamentação atualizada em meio a uma tecnologia em rápida evolução.
Outro desafio é regulamentar nacionalmente uma tecnologia global. Além disso, há o problema de uma nova tecnologia ser desenvolvida por um grupo de empresas privadas cujas prioridades (lucros) diferem das do público.
À medida que os gigantes da tecnologia avançam em busca da IA geral — modelos capazes de superar os humanos em qualquer tarefa cognitiva — o problema da "caixa preta" da IA persiste, desafiando as decisões de CEOs e Compliance Officers. Nem mesmo os criadores da tecnologia sabem exatamente como ela funciona.
As leis podem ser impostas para nortear condutas. Por meio das normas, podemos exigir que a IA obedeça ao nosso código de conduta coletivo e corporativo. Se as redes neurais da IA imitam nossos cérebros, e a lei é amplamente considerada um fenômeno em grande parte cognitivo, isso deve ser possível.
No entanto, a ética é diferente; ela envolve liberdade e decisões em situações inéditas. É nesse ponto que os esforços para regulamentar a IA devem começar, assim como o papel ético dos Compliance Officers.
IA e o direito
É sempre difícil encontrar o equilíbrio certo entre promover a inovação e mitigar os riscos potenciais associados a uma nova tecnologia. Com a expectativa de que a IA altere cada vez mais a prática do direito, será que o direito ainda consegue mudar a trajetória da IA? Se as "máquinas pensantes" são capazes de aprender, elas podem aprender a obedecer à lei?
O direito representou uma nova tecnologia radical. Uma vez internalizado, ele alinhou a ação individual ao consenso da comunidade. Vários filósofos têm se concentrado nessa característica única. O teórico jurídico do século 20, H. L. A. Hart, descreveu o direito como um mecanismo que permite que as normas sejam moldadas pela mudança das metanormas comportamentais subjacentes.
Recentemente, Ronald Dworkin caracterizou o direito em termos de "integridade", pois ele incorpora as normas de toda a comunidade, em vez de se assemelhar a um "tabuleiro de xadrez".
Se o direito fosse uma colcha de retalhos, poderia representar melhor os elementos individuais de crença e opinião, mas às custas da coerência.
O direito, portanto, funciona como um substituto para o comportamento humano individual. Ele absorve debates complexos sobre moral e valores e os transforma em regras vinculativas.
+ Confira as últimas notícias de Tecnologia
Transparência e responsabilidade na implementação de sistemas de IA são cruciais. A ética na coleta e uso de dados em inteligência artificial também é fundamental. John Rawls é conhecido por sua teoria da justiça como equidade, apresentada em sua obra Uma Teoria da Justiça (1971).
Ele propõe princípios de justiça destinados a garantir uma estrutura social justa e equitativa.
A ética de Rawls enfoca a maneira como as instituições distribuem direitos e deveres e regulam a divisão de benefícios sociais e econômicos. Ele introduziu a ideia do "véu da ignorância" como uma ferramenta para determinar os princípios de justiça de uma sociedade ideal, sugerindo que os princípios éticos devem ser escolhidos sem saber a posição que se ocupará na sociedade.
Nessas definições, podemos compreender como a ética está acima de leis e convenções, sendo um sentimento de responsabilidade de uma pessoa ou instituição em relação ao mundo. Isso se torna uma linha delicada quando o assunto é a Inteligência Artificial substituindo as decisões de um Compliance Officer.
A ética no uso da Inteligência Artificial é um esforço que acompanha a concepção, estruturação e execução da ferramenta para evitar que seu poder mal utilizado corrompa seu propósito.
Ponto crítico da IA
O ponto mais crítico é a veracidade da informação. Toda pessoa que utiliza IA deve ter em mente que as respostas fornecidas podem estar desatualizadas. Por isso, a revisão é fundamental. Um segundo ponto importante é entender que nenhuma ferramenta substitui o elemento criativo do ser humano.
Segundo o cientista Miguel Nicolelis, "se o futuro da IA é baseado no banco de dados do seu passado, não existe futuro. Se toda a sua música for produzida por um sistema inteligente baseado em Beethoven, nunca mais haverá um Elton John".
+ Todas as notícias sobre Inteligência Artificial
Essas observações complementam o debate sobre a ética na inteligência artificial, destacando a importância de uma abordagem ética e responsável no desenvolvimento e uso dessa tecnologia.
A IA pode até aprender a cumprir leis e determinadas regras de conduta, mas não podemos esperar que suas decisões sejam sempre éticas, pois ela não é tão inteligente e tão artificial quanto aparenta ser.
A IA não possui moral; ela é meramente um modelo estatístico de probabilidade, capaz de seguir um conjunto de regras e fazer previsões com base em dados históricos, por isso não pode substituir um profissional na área de compliance.
A inteligência artificial (IA) está transformando o compliance corporativo ao processar grandes volumes de dados com precisão e rapidez. Ela identifica padrões e anomalias, aumentando a eficiência e reduzindo erros, além de permitir monitoramento contínuo em tempo real.
No entanto, a supervisão humana é essencial para evitar vieses e injustiças. A IA deve ser vista como uma ferramenta complementar aos profissionais humanos, criando um ambiente de compliance mais robusto e eficiente.
* Integridade e Desenvolvimento é uma coluna do Centro de Estudos em Integridade e Desenvolvimento (CEID), do Instituto Não Aceito Corrupção (INAC). Este artigo reflete única e exclusivamente a opinião do(a) autor(a) e não representa a visão do CEID e INAC. Os artigos têm publicação semanal.