
No mundo das finanças 4.0, decisões como a concessão de crédito, precificação de seguros e liberação de pagamentos estão sendo automatizadas com a ajuda da Inteligência Artificial (IA). Porém, os critérios nem sempre são claros ou auditáveis. “Decisões da IA ainda são uma caixa preta. Se nem os especialistas conseguem explicar, não se sinta mal por não saber como o modelo da sua empresa decide quem recebe crédito”, disse Osvaldo Aranha. O especialista em IA e responsável pela área na CSU deu uma palestra no “Fintech & Insurance StartSe 2025”, na quinta-feira (15/5), em São Paulo.
Segundo ele, os próprios CEOs das principais big techs, como Google, Anthropic e OpenAI, já admitiram publicamente não compreender com exatidão o funcionamento dos modelos que criaram. “Se nem eles sabem, imagine nós”, disse, sobre os algoritmos usados em produtos financeiros.
IA e decisões opacas
Para ilustrar os riscos envolvidos, Osvaldo recorreu a uma analogia. Um cofre invisível, sem tranca nem parede, cujas decisões de abertura ou fechamento são tomadas por uma máquina que também não sabe explicar os próprios critérios. “Você colocaria seus dados pessoais ou seu dinheiro em um cofre assim?”, perguntou à plateia.
Segundo ele, esse é o cenário atual de diversas operações automatizadas do setor financeiro, em que algoritmos determinam, por exemplo, se uma pessoa terá crédito aprovado ou quanto pagará por um seguro, sem que os critérios estejam claros. E isso, nem para os desenvolvedores, nem para os clientes, tampouco para os reguladores.
Viés e exclusão
Ele também abordou os riscos éticos estruturais de sistemas baseados em IA. Ao serem treinados com dados históricos enviesados, os modelos podem perpetuar discriminações. “Se eu treino um modelo com dados que consideram determinado grupo como mau pagador, vou replicar esse julgamento — mesmo que a única variável usada seja o CEP da pessoa”, explicou Osvaldo.
Ele destacou que os efeitos extrapolam a inadimplência e se tornam um problema reputacional e de confiança no sistema financeiro. “Estamos diante de uma possível exclusão automatizada de grupos inteiros”, alertou.
Ética e governança distribuída
Aranha propôs uma abordagem centrada em ética by design e estruturação de times multidisciplinares desde o início do desenvolvimento de soluções com IA. De acordo com ele, a governança dos algoritmos não deve recair apenas sobre áreas jurídicas ou técnicas, e sim integrar setores como dados, RH, produto, comercial e atendimento. “Todos precisam participar da discussão sobre o impacto dos modelos”, afirmou.
Ele sugeriu o uso de frameworks como a ISO 42001 e a criação de comitês internos para auditoria algorítmica, além da adoção de sandboxes regulatórios — ambientes de teste com menor rigidez legal para inovação supervisionada. “Não adianta soltar um modelo em produção e depois dizer ‘Deus no comando’. IA exige monitoramento contínuo, como fazemos com cibersegurança. A tecnologia nos deu superpoderes. Mas é a ética que vai dizer se seremos heróis ou vilões.”