A inteligência artificial está transformando a detecção de fraudes, ajudando empresas a evitar a inclusão indevida em listas negras e a reconstruir a confiança nos sistemas financeiros. No início de 2024, o jornal The Guardian relatou que a empresa de engenharia britânica Arup perdeu US$ 25 milhões em um golpe de deepfake. Os fraudadores se passaram por executivos da empresa usando vídeo e voz gerados por IA, convencendo um funcionário a transferir dinheiro no que se tornou um dos incidentes de fraude sintética mais caros até o momento. Foi um aviso para empresas de todos os lugares de que a fraude, como se conhecia, havia evoluído. Infelizmente, os sistemas de defesa construídos para evitar ataques como este também vêm com custos não intencionais. Em setores como CBD, telemedicina, jogos, criptomoedas, finanças alternativas e nicotina — todos os quais são frequentemente considerados de alto risco — empresas que operam legalmente são frequentemente sinalizadas como muito arriscadas por sistemas automatizados de fraude. Mesmo processadores importantes como Stripe ou PayPal congelam abruptamente as contas de algumas empresas, sujeitando-as a taxas de transação mais altas sem qualquer recurso ou explicação. De acordo com Kirk Fredrickson, fundador da 2Accept, uma empresa com sede na Califórnia que ajuda comerciantes de alto risco a permanecerem em conformidade, o problema é que a maioria dos mecanismos de fraude trata qualquer coisa incomum como perigosa
. “Vimos empresas perderem contas da noite para o dia por nada mais do que uma palavra-chave na descrição de seus produtos. Esse tipo de excesso não apenas prejudica os negócios; ele mina a confiança no sistema”, disse ele. Para empresas que já operam sob escrutínio regulatório, ser rotulado como “fraude” por engano pode ser tão prejudicial quanto a coisa real. E esse é exatamente o desafio que empresas como a 2Accept estão tentando resolver. Quando a IA Erra Enquanto os sistemas de fraude legados foram projetados para bloquear fraudes, uma palavra-chave sinalizada na descrição de um produto ou uma única transação da região “errada” pode desencadear congelamentos de contas ou encerramentos permanentes. Um relatório da Fraud.com estima que os falsos positivos custam aos comerciantes 2,8% da receita anual. A recuperação de um negócio incluído na lista negra pode ser desafiadora. Muitas plataformas não oferecem recursos ou mesmo motivos para tais encerramentos. Uma vez incluída na lista negra, a recuperação é frequentemente quase impossível, pois muitas plataformas não fornecem explicação ou recurso. Isso criou um mercado para empresas que ajudam as empresas a navegar em ambientes de conformidade hostis. “A maioria das empresas com as quais trabalhamos não está tentando contornar as regras”, disse Fredrickson. “Eles estão tentando cumpri-las, e nosso trabalho é garantir que a IA possa fazer a diferença.” Sua empresa, 2Accept, resolve esse desafio usando modelos de integração que monitoram padrões em transações, estornos e comportamento do comerciante para ajudar as empresas a permanecerem em boa situação. De acordo com Fredrickson, os sistemas da empresa reduzem o risco de rescisão de contas em até 60%, ajudando milhares de comerciantes em CBD, telemedicina e fintech a permanecerem em conformidade. Uma Nova Fase na Prevenção de Fraudes Esse dilema não é apenas uma questão de pequenas empresas. Os principais players também estão tentando reduzir as recusas indevidas. A Mastercard agora usa o Decision Intelligence Pro, um sistema de IA que analisa 160 bilhões de transações por ano em tempo real, combinando dados comportamentais e de dispositivos para distinguir fraudes de atividades legítimas. Outra grande empresa dos EUA, a Riskified, recentemente ajudou uma plataforma de venda de ingressos dos EUA a recuperar US$ 3 milhões em vendas, implantando IA adaptativa no checkout para reduzir bloqueios desnecessários, de acordo com a Business Insider. O HSBC também relatou que seus modelos de IA reduziram os falsos positivos em 60%, detectando de duas a quatro vezes mais fraudes reais. A 2Accept relata que os comerciantes em sua plataforma veem até 48% menos estornos e se beneficiam de parcerias com bancos adquirentes de nível 1. Em todo o setor, a grande mensagem agora é que não é mais suficiente para a IA detectar mais fraudes. Ela também deve detectar menos erros honestos. E embora haja muito a ser visto em termos de quão mais eficazes esses sistemas podem ser, os esforços atuais são, sem dúvida, um passo na direção certa. A Responsabilidade Não É Mais Opcional À medida que a IA assume mais responsabilidade na detecção de fraudes, a margem de erro está diminuindo, e os sistemas encarregados de determinar quem transaciona e quem não pode esconder suas decisões. “As ferramentas que construímos precisam ser explicáveis”, disse Fredrickson. “Não basta sinalizar uma transação. Você precisa ser capaz de dizer o porquê e o que pode ser feito a respeito.” Ele tem sido vocal sobre esse ponto desde a fundação da 2Accept em 2015, muito antes da governança da IA entrar no mainstream regulatório. Na última década, Fredrickson também contribuiu com insights para discussões de políticas financeiras dos EUA sobre acesso baseado em risco, incluindo feedback usado pelo IRS sobre reforma bancária, materiais de briefing para a equipe do Senado e contribuições enviadas ao Government Accountability Office. As empresas não são as únicas a expressar essa expectativa de responsabilidade, pois a lei agora está cada vez mais apoiando-a. O EU AI Act e estruturas como o Digital Operational Resilience Act estão exigindo que os sistemas automatizados usados em domínios de alto risco, como detecção de fraudes, ofereçam transparência e responsabilidade por design. Nos EUA, agências como o Consumer Financial Protection Bureau estão investigando se as ferramentas de IA das instituições financeiras estão limitando injustamente o acesso ao crédito ou serviços financeiros, especialmente quando não há uma explicação clara para uma negação. Em todo o setor, isso está impulsionando uma mudança em direção à IA explicável e sistemas híbridos que combinam automação com revisão humana. O relatório recente da Experian revelou que a fraude impulsionada por IA atingiu 35% das empresas do Reino Unido somente no primeiro trimestre. Mais da metade agora está investindo em ferramentas não apenas para detectar mais fraudes, mas para evitar confundir clientes ou empresas com criminosos. A Necessidade de Ferramentas de Fraude Mais Inteligentes A fraude moderna está constantemente se adaptando, mas também os sistemas construídos para combatê-la. O verdadeiro desafio não é apenas pegar criminosos, mas fazê-lo sem julgar mal os negócios honestos pegos no meio. Quando um modelo de IA lê mal um padrão ou sinaliza uma empresa com base em uma palavra-chave mal compreendida, as consequências podem ser imediatas e severas: Contas congeladas, perda de receita, danos à reputação e nenhum caminho claro para recurso. Ser tratado como um golpista quando você não é é mais do que um inconveniente. Pode desfazer anos de confiança, crescimento e planejamento. É por isso que as ferramentas em que confiamos para detectar fraudes também devem ser mais inteligentes, justas e aprender a entender melhor. Fredrickson acredita que a próxima fase da prevenção de fraudes não é apenas sobre controles mais rígidos, mas sistemas mais justos. “Você não pode construir confiança com uma mão e tirá-la com a outra”, disse ele. “Se a IA vai governar o acesso à infraestrutura financeira, então ela tem que funcionar para todos, especialmente para aqueles que estão tentando fazer as coisas certas.” Ferramentas que reduzem as taxas de rescisão indevida pela metade podem ser cruciais em setores como CBD ou bem-estar, onde até 70% dos comerciantes enfrentam o fechamento em seu primeiro ano. “Nosso trabalho não é julgar uma indústria”, disse Fredrickson. “É garantir que as empresas éticas tenham uma chance justa de prosperar.” A prevenção de fraudes está mudando de definir limites estritos para compreender a verdadeira natureza dos dados. Em vez de cortar as empresas ao primeiro sinal de risco, os sistemas de hoje estão começando a pausar, avaliar e se adaptar. O objetivo não é apenas prevenir fraudes, mas também proteger as empresas legítimas de se envolverem no processo. Embora a IA ainda sirva como o guardião, ela agora está evoluindo para distinguir entre uma ameaça potencial e um negócio legítimo que adere às regras.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Forbes
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas