Fraudes conduzidas por chamadas telefônicas, mensagens e sites falsos ganharam um novo opositor: plataformas que utilizam inteligência artificial para enganar, distrair ou identificar golpistas. Criadores de conteúdo, operadoras de telecomunicações e pesquisadores desenvolvem sistemas automatizados que falam, escrevem e reagem como seres humanos, com o objetivo de reduzir perdas financeiras e coletar provas contra redes criminosas.
Kitboga multiplica sua presença com bots em tempo real
Conhecido no YouTube por expor golpes ao vivo, o norte-americano Kitboga conta hoje com quase 3,7 milhões de inscritos. Desde 2017, ele assume personagens — como uma avó fictícia — para manter estelionatários na linha e impedir que façam novas vítimas. A operação evoluiu: um chatbot desenvolvido por ele transcreve a voz do golpista, passa o texto por um modelo de linguagem e responde em tempo real. Dessa forma, até 12 robôs atuam simultaneamente, cada um em uma chamada diferente.
Enquanto conversa, o sistema registra URLs, endereços de carteira de criptomoedas ou números de contas fornecidos pelos criminosos. As informações são repassadas a instituições financeiras e autoridades, que podem fechar sites fraudulentos ou bloquear transferências. O criador também distribui o software gratuito Seraph Secure, capaz de bloquear páginas suspeitas e impedir acesso remoto não autorizado.
Operadora britânica testa a “vovó” Daisy para educar consumidores
No Reino Unido, a operadora O2 criou a personagem Daisy, um chatbot que utiliza a voz real da avó de um funcionário. A empresa divulgou propositalmente dados da “idosa” em fóruns clandestinos para atrair golpistas. Quando os criminosos ligavam, Daisy atendia a chamada, mantinha a conversa e fornecia apenas informações falsas.
Ao longo de vários meses, quase mil contatos foram registrados. A cada tentativa de extorsão, o modelo era refinado para prolongar o diálogo — por exemplo, trocando automaticamente a palavra “hacker” por “snacker” e conduzindo o assunto para biscoitos preferidos da suposta senhora. O objetivo principal foi promover o número 7726, canal oficial do governo britânico para denúncias de fraudes por SMS e telefonia.
Plataforma australiana Apate bloqueia até 29 mil ligações diárias
Em Sydney, o professor Dali Kaafar fundou a Apate, solução que intercepta chamadas em escala industrial. Inspirada por uma experiência pessoal do pesquisador, a empresa opera mais de 36 mil bots com diferentes perfis — idade, gênero, sotaque e nível de conhecimento tecnológico. Em parceria com a maior operadora do país, os robôs desviam diariamente entre 20 mil e 29 mil ligações suspeitas.
Além de ocupar a linha dos criminosos, a Apate fornece dados fictícios para rastrear tentativas de uso em sistemas bancários. Quando um golpista tenta validar o cartão ou acessar a conta, o banco parceiro recebe o alerta e pode identificar a origem da fraude.

Imagem: Internet
Cenário de perdas bilionárias acelera adoção de IA defensiva
Relatórios do setor estimam que prejuízos causados por golpes que utilizam inteligência artificial alcancem US$ 40 bilhões por ano até 2027. Só nos Estados Unidos, a média foi de 153 milhões de robocalls por dia em janeiro deste ano. Especialistas apontam que, sem ferramentas equivalentes, empresas e consumidores ficam em desvantagem perante criminosos que recorrem a deepfakes, clonagem de voz e ataques automatizados.
Bancos, processadoras de pagamento e companhias de comércio eletrônico já aplicam redes neurais para identificar padrões fraudulentos e anomalias biométricas. Entretanto, iniciativas independentes — como Kitboga, Daisy e Apate — demonstram que abordagens criativas podem complementar sistemas corporativos, elevando o custo da fraude e reduzindo o impacto sobre vítimas mais vulneráveis.
Para quem deseja acompanhar outras iniciativas tecnológicas que protegem o consumidor, vale conferir a cobertura permanente em nossa editoria de Tecnologia.
O uso de IA na defesa contra golpes ainda enfrenta desafios de custo e escala, mas casos práticos indicam que a estratégia de “lutar fogo com fogo” começa a produzir resultados concretos. À medida que fraudadores aperfeiçoam seus métodos, a colaboração entre criadores independentes, operadoras e instituições financeiras tende a ganhar importância.
Curiosidade
Um estudo de 2023 mostrou que bastam apenas três segundos de áudio para clonar uma voz com IA. A recomendação de especialistas é criar uma palavra-código familiar para confirmar identidades em situações de emergência. Assim, mesmo que o timbre pareça autêntico, o golpista terá dificuldade em comprovar que é realmente quem diz ser.