O Projeto de Lei (PL) 2.338/2023, que propõe um marco legal para o uso de Inteligência Artificial (IA) no Brasil, está preocupando o mercado financeiro. Entidades representantes do setor afirmam que o projeto está “no caminho certo”. Por outro lado, acompanham as discussões para evitar definições que possam entrar em conflito com as autoridades setoriais e normativas existentes, ao unificar e centralizar a regulação.
O “PL da IA” estabelece normas gerais para o desenvolvimento, implementação e uso responsável de sistemas de IA no Brasil. Além disso, trata do direito à explicação, à contestação de decisões e à solicitação de supervisão humana. A proposta também cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). A ideia seria “valorizar e reforçar as competências regulatória, sancionatória e normativa das autoridades setoriais”.
Uma das principais reivindicações do setor financeiro conquistadas até o momento, que entrou na versão substitutiva do texto de 4 de julho (a mais recente), é que o SIA se encarregue apenas da regulação dos setores que ainda não possuem regulação própria. Isso garantiria preservação da autoridade dos órgãos ou entes reguladores setoriais específicos, como o Banco Central (BC) e Conselho Monetário Nacional (CMN).
Expertise
O pedido parte do princípio de que os órgãos existentes têm expertise e experiência nas especificidades de seus setores, o que um novo órgão levaria anos para adquirir.
“Independentemente do órgão que for o coordenador do SIA, haveria uma curva de aprendizado muito elevada sobre as diferentes matérias a serem tratadas e as suas respectivas normativas […] Deve-se garantir que quaisquer novas regras se somem às existentes, de forma harmônica, aperfeiçoando a capacidade de endereçar riscos sem comprometer soluções já pacificadas”. A frase está no relatório do Instituto de Tecnologia & Sociedade do Rio (ITS-Rio) IA no setor financeiro: Paralelos entre o PL 2.338/2023 e a regulação setorial dos serviços financeiros no Brasil.
“O que faz sentido é que a gente tenha alguma garantia de que a SIA se coordene com os órgãos setoriais. Isso para que, na hora que tenha que definir regras especializadas, seja feito em conjunto com o BC”. A opinião é do coordenador do grupo de governança e regulação de dados da Zetta, Daniel Stivelberg.
A Federação Brasileira dos Bancos (Febraban) vai na mesma direção. Em nota ao Finsiders Brasil, a entidade disse que se a regulação setorial e o prazo para entrada em vigor forem preservados, “o impacto na adequação será absorvido pelos bancos”.
No sistema financeiro brasileiro, 96% das instituições já adotam IA em diversos casos de uso. Eles, por sua vez, vão desde o atendimento ao cliente e monitoramento para prevenção de fraudes e lavagem de dinheiro até atividades de back office, personalização de serviços e avaliação de uso de crédito. Os dados são da “Pesquisa Febraban de Tecnologia Bancária 2024”. As reivindicações do setor financeiro se concentram no conflito por competência e no possível travamento do avanço do uso de IA no Brasil.
Alternativas
“Para garantir o desenvolvimento e uso seguros da IA no Brasil, é importante estabelecer um marco legal com diretrizes claras para a aplicação da tecnologia”, diz a nota. “E que promova o desenvolvimento socioeconômico e a inovação, em harmonia com as estruturas regulatórias já existentes e os direitos fundamentais. Com um marco legal sólido, podemos avançar no uso da IA de forma responsável e benéfica para todos”.
Em carta aberta endereçada ao Congresso Nacional em abril, 40 entidades dos mais diversos setores, incluindo a Zetta e a Associação Brasileira de Fintechs (ABFintechs), apresentaram sugestões e alternativas para o debate. Essas entidades defendem, entre outros pontos, uma abordagem que integre legislações e órgãos já existentes.
Travamento
Outra preocupação do setor é o possível impacto da aprovação do novo marco legal nas pesquisas e no desenvolvimento de Inteligência Artificial no Brasil.
Em uma análise realizada em abril pelo Tribunal de Contas da União (TCU) sobre os projetos de regulação da IA em discussão, o órgão encontrou riscos nas propostas legislativas em tramitação. Os riscos seriam de “impactar a capacidade de inovação de empresas e do setor público no Brasil”. E continua com “consequências potencialmente negativas para o desenvolvimento social, tecnológico e econômico do país”.
Entre os riscos, o TCU destacou a dependência de importação de tecnologia em decorrência da estagnação do desenvolvimento de IA no Brasil. Além disso, a criação de barreiras para startups e empresas de menor porte e a perda de competitividade dos produtos e serviços brasileiros no exterior. Além de barreiras à transformação digital do Estado brasileiro.
Excessos
Cristina Alves, pesquisadora de Direito e Govtech do ITS-Rio, uma das autoras do relatório do Instituto, argumenta que o excesso de regulamentos pode desacelerar o ritmo de inovação. Para ela, as empresas, especialmente as menores, enfrentariam maiores desafios para estar em conformidade com múltiplas normativas, muitas vezes complexas e redundantes.
“Em vez de ver a IA apenas como uma fonte de risco a ser controlado, é crucial que a legislação também promova um ambiente que encoraje a pesquisa e a inovação. Somente assim permitirá que o Brasil explore o potencial econômico e social dessa tecnologia emergente. Sem esse equilíbrio, corremos o risco de ficar para trás em um campo onde o avanço tecnológico é essencial para a competitividade global”, diz Cristiana,.
Daniel, da Zetta, defende que não se deve criar obrigações muito detalhadas na própria legislação devido ao “dinamismo da tecnologia”. “O grande risco é que se crie na norma obrigações muito específicas para um mercado que é muito diverso, como é com a inteligência artificial. Seria uma fotografia que ficaria velha muito rapidamente”, diz.
Riscos
Isto porque, desta forma, o texto pode se tornar “obsoleto” rapidamente, defende Daniel. Em versão anterior, por exemplo, a proposta trazia modelos de crédito usados com IA definido como “alto risco”. Isso definiria regras específicas para tratar da ferramenta. “Não é desejável estabelecer o risco desta forma porque o modelo de crédito, a depender da finalidade dele, pode ser mais alto ou mais baixo. O BC tem condições de avaliar caso a caso e definir regras e governanças infralegais de acordo com cada nível de risco definido”, defende Daniel.
“Como está hoje, é um texto equilibrado e que vai em uma direção certa, não trava o desenvolvimento. Mas poderia travar com a criação de obrigações excessivas no texto da lei, a definição ex ante das ferramentas e a inexistência de uma institucionalização do SIA. Isso geraria uma insegurança jurídica, com normas que poderiam conflitar com vários outros reguladores”, aponta Daniel.