REGULAMENTAÇÃO

Senado muda texto do Marco Legal da IA; votação é adiada

O texto tramitava em conjunto com outros nove projetos que estabelecem um arcabouço legal para o desenvolvimento e uso da IA no país

Imagem: Gerd Altmann/Pixabay
Imagem: Gerd Altmann/Pixabay

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado apresentou na terça-feira (18) um substitutivo ao projeto de lei (PL) 2.338/2023, que regulamenta o uso da inteligência artificial no Brasil.

Também conhecido como Marco Legal da IA, o texto original é de autoria do senador Rodrigo Pacheco (PSD-MG) e tramitava em conjunto com outros nove projetos que estabelecem um arcabouço legal para o desenvolvimento e uso da IA no país. O senador Eduardo Gomes (PL-TO), relator da comissão, diz que esses projetos serão agora vão focar no substitutivo, que passará por uma nova análise dos senadores.

Com isso, a votação do Marco Legal da IA, que originalmente seria na terça-feira, irá ocorrer após cinco audiências públicas sobre o tema na comissão. Os projetos de lei incorporados ao substitutivo são o PL 21/2020, PL 5.051/2019, PL 5.691/2019, PL 872/2021, PL 3.592/2023, PL 145/2024, PL 146/2024, PL 210/2024 e PL 266/2024.

Mudanças

Entre as mudanças, o novo texto propõe a criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) e designa a Autoridade Nacional de Proteção de Dados (ANPD) como autoridade competente para coordenar o SIA. Além disso, incorpora novas regras de proteção ao trabalho e aos trabalhadores para mitigar os efeitos negativos da IA.

O substitutivo também revisou a listagem de sistemas de alto risco, reduzindo os sistemas de identificação biométrica considerados de risco elevado. E estabelece medidas de incentivo a microempresas, empresas de pequeno porte e startups, que estarão sujeitas a critérios diferenciados, como acesso prioritário aos ambientes de testagem.

“O substitutivo sofreu impacto dos avanços da discussão no Reino Unido (análise de impacto regulatório do Ministério da Ciência e Tecnologia) e pela Executive Order do Estados Unidos acerca da matéria. Ambas privilegiam um ecossistema regulatório que tem por finalidade precípua promover e garantir a cooperação entre as autoridades setoriais, mas com algum ponto de coordenação para evitar assimetrias que distorçam a livre iniciativas e a livre concorrência”, aponta o parecer do relator.

O senador Eduardo Gomes ressaltou ainda que os canais de diálogo ficarão “permanentemente abertos para a construção coletiva dessa regulação”.

Do que trata o projeto

O PL 2.338/2023 segue a regulamentação criada pela União Europeia. Em linhas gerais, cria normas para o desenvolvimento, implementação e uso responsável de sistemas de IA no país, estabelecendo graus de risco para esses sistemas.

“Esse é um PL principiológico. Isso significa que tem como principal vetor a análise de risco dos sistemas de IA, o que está alinhado com a diretriz europeia. Ou seja, a depender do risco possível no uso daquele sistema, a tecnologia não poderá ser usada. Ou poderá ser usada se os desenvolvedores adotarem medidas de controle”, explica Fabio Kujawski, sócio de Tecnologia do Mattos Filho.

Ainda não se sabe qual será a entidade pública responsável por supervisionar as empresas no desenvolvimento e aplicação dessas tecnologias. Órgãos como a Agência Nacional de Telecomunicações (Anatel) e o Conselho Administrativo de Defesa Econômica (Cade) já manifestaram interesse em abraçar essa função. Além do controle da IA, a autoridade também terá o papel de regulamentar os sistemas de risco excessivo e de alto risco. A partir daí, vai aplicar as sanções administrativas em caso de descumprimento das normas.

Sanções

De acordo com o texto, essas sanções podem ser desde uma advertência até multa. Neste caso, o valor é de 2% sobre o faturamento da empresa, limitada a R$ 50 milhões. Ou, ainda, suspensão do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial.

“Em geral, o projeto está alinhado com a Europa. Tem algumas situações em que talvez a gente tenha sido mais rigoroso. Alguns riscos excessivos a mais, altos riscos a mais. E algumas obrigações talvez um pouco maiores do que a gente vê na Europa, mas nada completamente divergente. As sanções foram bem inspiradas na LGPD”, avalia Fabio.

Assim como aconteceu com a Lei Geral de Proteção de Dados (LGPD), a regulamentação dos sistemas de IA no Brasil vai exigir mudanças das empresas. Precisarão ter equipes dedicadas a garantir que as normas estejam sendo cumpridas. Segundo o projeto, é preciso que haja supervisão humana em todos os ciclos de desenvolvimento e uso dessas tecnologias. Além disso, as empresas terão a obrigação de notificar a autoridade competente sobre incidentes de segurança relacionados a esses sistemas.

“A lei exige uma necessidade constante de monitoramento da assertividade dessas tecnologias, e para tudo isso tem que ter processo. Para todos os riscos, a empresa terá que ter uma forma de mitiga-los. É claro que isso encarece o negócio, mas por outro lado dá mais segurança”, pondera o sócio de Tecnologia do Mattos Filho.

Graus de risco

  • Risco excessivo – Sistemas de IA que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir o indivíduo a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança. O grupo inclui ainda os sistemas que exploram vulnerabilidades de grupos sociais para usá-las contra essas pessoas, além do uso da IA pelo poder público, para avaliar, classificar ou ranquear as pessoas, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional. O uso de sistemas com esse grau de risco não é possível.
  • Alto risco – São sistemas para aplicação em serviços básicos de uma forma geral. Por exemplo, como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, como controle de trânsito e redes de abastecimento de água e de eletricidade; no âmbito judicial e em investigações criminais; no envio ou estabelecimento de prioridades para serviços de resposta a emergências, incluindo bombeiros e assistência médica; entre outros. Além disso, esse grau de risco inclui o uso de IA na educação, no acesso ao crédito, em carros autônomos, e processos seletivos de empresas.

*Conteúdo publicado originalmente no site parceiro Startups.