Em 2024, as fraudes nos meios de pagamento na Europa somaram quase 1,2 bilhões de euros, dos quais 382 milhões estiveram ligados a manipulações direcionadas. Por trás desses números existe uma transformação que altera o perfil do risco digital: a fraude deixou de ser apenas massiva para tornar-se inteligente, adaptativa e, muitas vezes, quase invisível.
Anna Ongaro, Country Manager para a Itália da Sis ID, resume a mudança com clareza técnica: é necessário que bancos, empresas e autoridades públicas unam forças frente a ameaças que agora empregam as mesmas camadas de inteligência que deveriam proteger os sistemas. “As fraudes evoluem mais rápido do que as regras”, afirma Ongaro. “Hoje os truffatori utilizam a mesma inteligência artificial que devia nos proteger.”
Desde 9 de outubro de 2025, a União Europeia tornou obrigatória a verificação do beneficiário (Verification of Payee, VoP) nos bonifici istantanei. A verificação automática entre nome e IBAN reduz o risco de erro humano e de desvios coordenados, mas, nas palavras de Ongaro, representa um passo relevante mas não suficiente.
O dilema central é que a IA tem dupla face: por um lado, quase nove em cada dez institutos financeiros já a utilizam para detectar anomalias e comportamentos suspeitos; por outro, a IA generativa é hoje a ferramenta preferida por criminosos. Deepfakes vocais, falsificação de IBAN e phishing cada vez mais direcionado permitem a simulação de ordens de pagamento e a imitação realista de executivos, tornando o ataque sistêmico e difícil de distinguir do tráfego legítimo.
Uma pesquisa do Boston Consulting Group indica que apenas uma em cada quatro instituições bancárias se sente pronta para integrar modelos generativos nos seus sistemas de proteção de forma segura. O desafio, observa Ongaro, “não é mais adotar a IA, mas governá‑la, garantindo transparência, supervisão e controle”.
Entre as respostas tecnológicas emergentes, destaca-se o aprendizado federado (federated learning). Nesta arquitetura, bancos, fintechs e empresas treinam modelos localmente e compartilham apenas parâmetros ou atualizações — não os dados sensíveis. O resultado é um modelo global mais robusto, compatível com o GDPR, capaz de identificar padrões de fraude que nenhum ator isolado veria. Estudos mostram que essa cooperação pode aumentar a precisão do deteção em cerca de 20% em média.
Para que essa abordagem funcione como infraestrutura coletiva, serve-se de um “triângulo de confiança”: as empresas que atuam na linha de frente como sentinelas; os bancos como guardiões dos fluxos financeiros; e as autoridades públicas como árbitros da neutralidade e supervisão. Essa aliança deve ser suportada por um quadro regulatório sólido — na Europa, os pilares são o GDPR, o regulamento DORA sobre resiliência digital e o AI Act, que exige usos éticos e rastreáveis da inteligência artificial.
Exemplos práticos já existem: na França, o sistema VoP demonstra como inovação e regulação podem convergir para reduzir desvios e recuperar confiança nos pagamentos instantâneos. Mas a experiência francesa também sublinha outra lição pragmática: tecnologia e regras são insuficientes sem operações coordenadas entre atores diversos.
Do ponto de vista de infraestrutura digital, o combate à fraude persegue dois objetivos complementares: construir alicerces digitais mais resilientes e desenhar protocolos de cooperação que transformem o fluxo de dados em um sistema nervoso colaborativo das cidades e das empresas. Sem isso, continuaremos a reagir a incidentes; com isso, poderemos antecipá‑los e neutralizá‑los na origem.
Em suma, proteger os pagamentos online na era da IA exige governança, interoperabilidade e um contrato de confiança entre setor privado e poder público: a arquitetura existe, resta implantá‑la de forma coordenada e responsável.






















