top of page

Do ecossistema ao agente: o dado que não está pronto já decide por você

  • há 3 dias
  • 7 min de leitura

Por Mary Ballesta, embaixadora IA4FIN





Em algum momento dessa semana, em alguma instituição financeira, um agente tomou uma decisão: avaliou um perfil de crédito, sinalizou uma transação suspeita, recomendou um produto ou ajustou um limite. Ninguém foi consultado e ninguém assinou. A qualidade dessa decisão depende inteiramente de algo que já existia, ou não, muito antes desse agente entrar em operação.


No artigo anterior, explorei como o valor evoluiu em camadas, do Open Banking ao Open Finance, até a emergência do Open X, onde dados, serviços e experiências fluem entre indústrias e a inteligência passa a ser o elemento que permite ao sistema funcionar como sistema. Essa é a realidade que o setor financeiro já vive e que se expande para todas as indústrias. A questão que ela coloca agora não é se os agentes vão proliferar, porque essa realidade está já entre nós, mas sobre qual fundação eles estão sendo construídos e o que acontece quando essa base não está à altura do que se pede a eles.


A terceira onda e o paradoxo que ela expõe


A inteligência artificial percorreu três fases em velocidade crescente: 1) preditiva, com modelos que antecipavam comportamentos, 2) generativa, com sistemas que criavam conteúdo e sintetizavam informação, e 3) agêntica, que já não é promessa mas realidade operacional, com sistemas que decidem, agem e interagem de forma autônoma, em tempo real, sem esperar instruções humanas para cada passo.


O paradoxo dessa terceira onda é que ela chega sobre uma fundação ainda muito incompleta. Segundo o New Vantage Partners Data & AI Leadership Survey 2023, apenas 23,9% dos executivos consideram suas empresas genuinamente data-driven, o que significa que mais de três quartos das organizações ainda não chegaram ao estágio em que o dado orienta sistematicamente as decisões do negócio. Estamos falando de agentes autônomos operando sobre uma base que a maioria das organizações ainda está construindo, e a distância entre o que se pede a esses sistemas e o que os dados que os alimentam conseguem entregar é onde reside o risco real desta fase da transformação.

 

"Mais de três quartos das organizações ainda não chegaram ao estágio em que o dado orienta sistematicamente as decisões do negócio."

 

 

Quando todas as fronteiras se movem ao mesmo tempo


O efeito do Open Finance no Brasil não foi o de apenas uma regulação, foi a primeira grande operacionalização em escala de uma lógica que agora se expande para todos os setores e em todas as direções.


Uma montadora que financia o próprio veículo e monitora comportamento de uso via IoT passa a competir com bancos no crédito e com seguradoras no risco. Uma varejista que oferece conta digital, BNPL e seguro no checkout opera como instituição financeira sem nunca ter pedido licença bancária. Ao mesmo tempo, bancos que distribuem energia, gerenciam assinaturas e oferecem benefícios de saúde já não são apenas instituições financeiras, são orquestradores de experiências de vida que competem em territórios que não lhes pertenciam.


Segundo a PwC 29th Global CEO Survey 2026, 42% dos CEOs afirmam que suas empresas começaram a competir em novos setores nos últimos cinco anos, e o dado mais revelador não é o percentual, é a direção: a movimentação é bidirecional e simultânea, com todas as indústrias entrando nos territórios umas das outras ao mesmo tempo.


Quando em 2009 eu trabalhava na área de CRM de uma grande instituição financeira, achávamos que éramos privilegiados por ter acesso ao transacional diário dos nossos clientes, aquilo já nos parecia uma riqueza imensurável de dados. Hoje, o dado de mobilidade alimenta precificação de seguro, o dado de saúde informa condição de crédito, o dado de consumo define a oferta de investimento, e transações, serviços e dados que antes pertenciam a um setor circulam entre vários. A distância entre o que imaginávamos possível então e o que está disponível agora é a mesma distância que separa as organizações que constroem sua fundação de dado hoje das que tentarão recuperar terreno depois.


Nesse ambiente, a economia da preferência, orientada a lifestyles, jornadas e experiências cada vez mais individualizadas, exige inteligência contextual que só se sustenta com dado integrado, de qualidade e em tempo real. O setor financeiro chegou primeiro a essa fronteira, mas ela agora é de todas as indústrias.


A qualidade que opera em três dimensões


A qualidade de dados é quase sempre tratada como um problema técnico, um projeto de limpeza ou uma camada de governança adicionada depois que os problemas aparecem. Mas ela opera em três dimensões simultaneamente, e cada uma tem seu próprio custo quando negligenciada.


A primeira é a eficiência de fluxo. Dados que não são capturados no momento em que ocorrem, que não chegam a quem precisa deles, ou que chegam sem confiabilidade suficiente para embasar uma decisão sem validação adicional, criam o equivalente operacional do waste descrito pelo Lean. Nas organizações em geral, 80% do tempo no value stream é espera e não entrega, e parte substancial dessa espera existe porque o dado não flui com a qualidade e a velocidade que o processo exige, seja por falha na captura, seja por falha na distribuição para quem poderia agir sobre ele.


A segunda é o impacto direto nos resultados de negócio, onde organizações com alta maturidade em dados sustentaram crescimento positivo em 82% dos casos nos últimos três anos, enquanto nas de baixa maturidade menos da metade das iniciativas digitais atingem suas metas. A diferença não está na sofisticação do modelo de IA, está na fundação de dado que o precede e que determina o teto do que qualquer modelo pode alcançar.


A terceira é a invisibilidade das oportunidades perdidas. Dados de baixa qualidade não apenas produzem decisões ruins, eles tornam invisível o que poderia ter sido feito diferente: a oferta que não foi feita no momento certo, o risco que não foi identificado a tempo, a ineficiência que nunca apareceu porque os dados que a revelariam nunca foram capturados ou correlacionados adequadamente. O custo do que não se enxerga raramente aparece no P&L, mas é sistemático e cumulativo.


Quando a escala amplifica o que você não queria ampliar


A inteligência artificial não cria qualidade onde ela não existe. Ela amplifica o que encontra, com a velocidade e o volume que a arquitetura permite, e no setor financeiro isso tem consequências que vão muito além da reputação.


No relacionamento com o cliente, um agente que personaliza com dado inconsistente ou enviesado não comete um erro pontual, ele replica esse erro em escala, para cada interação e em cada canal. Em um mercado onde a troca de provedor tem fricção cada vez menor e onde a preferência se conquista na relevância da experiência, o custo comercial de personalizar mal é imediato e difícil de reverter.


Os riscos internos são igualmente sérios e menos discutidos: um motor de risco treinado com dados que carregam viés de segmentação vai tomar decisões sistematicamente distorcidas sem que ninguém perceba, até que o padrão se torne evidente nos resultados ou nos questionamentos regulatórios. Um Agente que sobe autonomamente um release para produção sem dado de qualidade suficiente pode comprometer a estabilidade de serviços críticos. E sistemas agênticos com acesso a múltiplas camadas de dados e de operação criam superfícies de ataque cibernético que as arquiteturas tradicionais não foram desenhadas para cobrir. O dado sem governança não é apenas um risco técnico, é um risco estratégico, regulatório, operacional e cibernético simultaneamente.

 

"A IA não cria qualidade onde ela não existe. Ela amplifica o que encontra, com a velocidade e o volume que a arquitetura permite."

 

A fundação que permite escalar com confiança


Se o problema é a fragmentação, a centralização não é a resposta, é a armadilha. Lakes e warehouses resolvem armazenamento, mas não resolvem uso, e em um ambiente onde o valor vem da orquestração de múltiplos atores com fontes de dado distribuídas por ecossistemas que cruzam setores, uma central única de dados vira gargalo antes de virar vantagem.


O Data Mesh propõe uma lógica diferente: cada domínio de negócio torna-se responsável pelo seu próprio dado como produto, com qualidade, rastreabilidade e interfaces que outros domínios, agentes e parceiros de ecossistema podem consumir diretamente. Não é uma tecnologia, é uma mudança na forma como se governa, distribui e responsabiliza o dado, com quatro consequências concretas: visibilidade contínua sem depender de consolidação centralizadas que chegam tarde, governança sem fricção porque as políticas são aplicadas no próprio domínio, democratização porque quem está na execução tem acesso ao que precisa para decidir, e responsabilidade descentralizada porque o dono do dado é também o responsável pela sua qualidade.


No contexto de ecossistemas multi-ator, essa arquitetura tem um benefício adicional que vai além das fronteiras da organização: ela permite que parceiros, plataformas e agentes externos consumam dados com a mesma confiabilidade que os internos, criando a base para que a inteligência distribuída do ecossistema funcione de forma coerente e não como uma coleção de silos conectados por APIs que não se conversam.


A janela que está se fechando, e o custo que está chegando


A infraestrutura de dado que se constrói hoje determina o teto de valor que os agentes poderão atingir amanhã. Essa janela está se fechando, porque a distância entre quem investe na fundação agora e quem tenta recuperar terreno depois não é linear, ela cresce na mesma proporção em que a complexidade dos ecossistemas cresce.


Mas há uma dimensão desta equação que ainda é pouco discutida e que vai redefinir a urgência do tema nos próximos meses: o custo da IA está deixando de ser um investimento fixo e passando a ser um consumo variável. No modelo tokenizado que está emergindo, cada consulta, cada decisão agêntica, cada interação tem um custo por token, e esse custo escala diretamente com o volume de operações. Organizações que chegarem nesse modelo com dados fragmentados, redundantes ou de baixa qualidade não apenas tomarão decisões piores, pagarão por elas a cada iteração, em escala, sem controle sobre o que está sendo consumido ou por quê.


A qualidade do dado deixou de ser uma questão de governança. Passou a ser uma questão de sustentabilidade econômica da IA.


Porque no ecossistema agêntico que está emergindo, o dado não é mais insumo de análise, é o código genético do comportamento da sua organização. E organizações que não governam seu código genético não controlam sua própria evolução, nem o custo dela.

Comentários


Não é mais possível comentar esta publicação. Contate o proprietário do site para mais informações.
bottom of page