Direito Digital, Governança e Ética com IA: o que deveríamos estar discutindo (mas muitos ainda não estão)
- 25 de fev.
- 5 min de leitura
Por Fernando Tassin, embaixador IA4FIN

Nos últimos 2 anos, o mercado financeiro e de meios de pagamento intensificou estudos e aplicações com inteligência artificial, praticamente como um laboratório permanente.
Provas de conceito se multiplicaram, pilotos ganharam espaço em apresentações estratégicas e a discussão sobre prompts dominou boa parte da agenda de inovação, mas este ciclo está se encerrando, ou pelo menos, deveria.
Devemos focar em outro ponto: A IA precisa gerar resultado mensurável sem ampliar o risco jurídico, regulatório ou reputacional da instituição. A fase da experimentação tolerada está dando lugar à cobrança por eficiência comprovada. É a métrica acima da mágica.
Para C-levels e tomadores de decisão, essa mudança altera profundamente o enquadramento do tema. A IA deixou de ser apenas um vetor de transformação digital e passou a ocupar uma posição sensível entre eficiência operacional, gestão de risco e responsabilidade institucional. Quando um modelo influencia concessão de crédito, prevenção à fraude, onboarding ou monitoramento transacional, ele deixa de ser apenas tecnologia habilitadora e passa a atuar como elemento de decisão estratégica. Essa transição, embora silenciosa, é estrutural. O risco associado à IA já não é apenas tecnológico, é jurídico, reputacional e, em determinados contextos, prudencial.
O novo ponto cego: a IA já virou risco operacional
Parte relevante do mercado ainda opera com governança de IA em estágio imaturo. Muitas instituições avançaram rápido na adoção, mas não na integração. Multiplicam-se agentes e projetos, implantados de forma fragmentada, sem conexão adequada com a governança de dados, arquitetura de risco ou com os mecanismos de auditabilidade, gerando um cenário de sofisticação aparente com fragilidade estrutural latente. No mercado financeiro, essa combinação raramente permanece invisível por muito tempo. As lacunas não demoram a aparecer.
Engenharia de prompt não substitui engenharia de negócios
Muita geração de prompt, mas pouca governança e eficiência nos negócios. Prompts bem construídos podem melhorar a produtividade, mas não resolvem temas centrais como responsabilização, explicabilidade decisória, gestão de vieses ou conformidade regulatória. A pergunta madura já não é qual prompt ou ferramenta de IA gera a melhor resposta, mas se o modelo pode ser defendido diante de um regulador, de um auditor ou de um juiz. Essa é a fronteira que separa experimentação tecnológica de maturidade institucional.
Hard Law: onde a responsabilidade realmente aparece
Quando um agente gera uma negativa indevida de crédito, bloqueio incorreto de conta ou uma falha relevante na prevenção à fraude, o debate jurídico sai da qualidade técnica do algoritmo e entra na responsabilização dos efeitos da decisão. No Brasil, o Banco Central já admitiu estar estudando modelos de IA para análise de crédito e de prevenção a fraudes. Na prática, este debate ganha tração por uma combinação de fatores: fortalecer a agenda de proteção ao consumidor, evolução da supervisão baseada em risco e aumento da litigância envolvendo decisões automatizadas.
Propriedade intelectual: a guerra silenciosa dos dados
No mercado financeiro, a sensibilidade é enorme, pois envolve dados transacionais proprietários, modelos de risco que representam vantagem competitiva e informações relevantes. Sem uma política clara de governança, a instituição pode estar criando exposição jurídica silenciosa que só se materializa quando o problema já é grande.
LGPD e o futuro Marco Legal de IA
A leitura de que a conformidade com IA se resolve com anonimização ou cláusulas contratuais padrão já se mostra insuficiente. O desafio está em governar o ciclo de vida completo dos modelos. Há o Projeto de Lei 2338/2023, que é a proposta para instituir o Marco Legal da Inteligência Artificial no Brasil, definindo regras gerais, princípios e deveres para o desenvolvimento e uso de sistemas de IA, buscando proteger direitos fundamentais, garantir segurança e, ao mesmo tempo, incentivar inovação e competitividade econômica, porém, ainda carece de evoluções e adaptações.
No mercado financeiro, a tendência é de que, a ANPD (Agência Nacional de Proteção a Dados) seja responsável pela supervisão, porém, para demais setores, como jurídico, seguros, saúde, este tema ainda está em discussão. Um ponto de convergência, é de que, assim como em outros mercados como Estados Unidos e União Europeia, os temas envolvendo IA sejam classificados em:
Risco inaceitável → proibido
Alto risco → fortemente regulado
Risco limitado → obrigações de transparência
Risco mínimo → livre
A combinação entre LGPD e o avanço do debate sobre o Marco Legal de IA eleva a expectativa regulatória.
Ética e vieses: o risco reputacional que chega antes da multa
Esta discussão segue a mesma lógica de amadurecimento. Durante algum tempo, fairness foi tratado como tema reputacional. Hoje, especialmente em crédito, prevenção à fraude e segmentação de clientes, se aproxima rapidamente do campo regulatório e de proteção ao consumidor. Modelos que geram discriminação indireta ou decisões percebidas como injustas podem produzir impacto reputacional imediato, antes de questionamentos do regulador. Sem mecanismos estruturados, a instituição pode até ganhar eficiência de curto prazo, mas amplia sua exposição.
O papel do IA4FIN sobre este pilar
O pilar de Direito Digital, Governança e Ética em IA , tratado aqui no IA4FIN emerge justamente para discutir a tensão central enfrentada hoje pelos C-levels: como acelerar a adoção de inteligência artificial sem fragilizar o CNPJ nem a reputação institucional. Quando bem estruturado, não desacelera a inovação; ao contrário, se torna sustentável. Permite que a instituição escale automação com segurança jurídica, reduza riscos invisíveis, aumente a confiança regulatória e preserve valor de marca enquanto captura eficiência operacional.
A próxima vantagem competitiva é a IA defensável
Sobre IA, a vantagem competitiva está na capacidade de provar que ela é governada, explicável e juridicamente defensável. A fase da curiosidade tecnológica ficou para trás. Para bancos, fintechs e demais players, a nova fronteira é a da IA que precisa fechar a conta operacional, jurídica e, ao mesmo tempo, ética.
Curiosidade: Pergunta feita ao ChatGPT
Pergunta: Descreva em um parágrafo, quais pontos de atenção devem ser levados em consideração para a regulação da IA?
Resposta: “Na regulação de IA, o ponto central não é a tecnologia em si, mas o risco que ela cria dentro do sistema. É crítico observar:
governança e responsabilização clara pelo uso dos modelos (quem responde pelo dano)
qualidade, origem e viés dos dados de treino
transparência e explicabilidade proporcional ao risco do caso de uso
segurança cibernética e resiliência operacional dos sistemas
proteção de dados pessoais e aderência à LGPD
prevenção de usos abusivos como fraude, manipulação ou decisões discriminatórias, e
supervisão contínua — porque IA não é estática e ela pode degradar ao longo do tempo.
O erro mais comum nas discussões regulatórias é tratar IA como tema puramente tecnológico, quando na prática ela é um problema de risco sistêmico, governança e impacto social, especialmente em setores regulados como financeiro e meios de pagamento.



Comentários