Bots de IA entram em ação para enfrentar golpes por telefone e internet

Tecnologia

Fraudes conduzidas por chamadas telefônicas, mensagens e sites falsos ganharam um novo opositor: plataformas que utilizam inteligência artificial para enganar, distrair ou identificar golpistas. Criadores de conteúdo, operadoras de telecomunicações e pesquisadores desenvolvem sistemas automatizados que falam, escrevem e reagem como seres humanos, com o objetivo de reduzir perdas financeiras e coletar provas contra redes criminosas.

Kitboga multiplica sua presença com bots em tempo real

Conhecido no YouTube por expor golpes ao vivo, o norte-americano Kitboga conta hoje com quase 3,7 milhões de inscritos. Desde 2017, ele assume personagens — como uma avó fictícia — para manter estelionatários na linha e impedir que façam novas vítimas. A operação evoluiu: um chatbot desenvolvido por ele transcreve a voz do golpista, passa o texto por um modelo de linguagem e responde em tempo real. Dessa forma, até 12 robôs atuam simultaneamente, cada um em uma chamada diferente.

Enquanto conversa, o sistema registra URLs, endereços de carteira de criptomoedas ou números de contas fornecidos pelos criminosos. As informações são repassadas a instituições financeiras e autoridades, que podem fechar sites fraudulentos ou bloquear transferências. O criador também distribui o software gratuito Seraph Secure, capaz de bloquear páginas suspeitas e impedir acesso remoto não autorizado.

Operadora britânica testa a “vovó” Daisy para educar consumidores

No Reino Unido, a operadora O2 criou a personagem Daisy, um chatbot que utiliza a voz real da avó de um funcionário. A empresa divulgou propositalmente dados da “idosa” em fóruns clandestinos para atrair golpistas. Quando os criminosos ligavam, Daisy atendia a chamada, mantinha a conversa e fornecia apenas informações falsas.

Ao longo de vários meses, quase mil contatos foram registrados. A cada tentativa de extorsão, o modelo era refinado para prolongar o diálogo — por exemplo, trocando automaticamente a palavra “hacker” por “snacker” e conduzindo o assunto para biscoitos preferidos da suposta senhora. O objetivo principal foi promover o número 7726, canal oficial do governo britânico para denúncias de fraudes por SMS e telefonia.

Plataforma australiana Apate bloqueia até 29 mil ligações diárias

Em Sydney, o professor Dali Kaafar fundou a Apate, solução que intercepta chamadas em escala industrial. Inspirada por uma experiência pessoal do pesquisador, a empresa opera mais de 36 mil bots com diferentes perfis — idade, gênero, sotaque e nível de conhecimento tecnológico. Em parceria com a maior operadora do país, os robôs desviam diariamente entre 20 mil e 29 mil ligações suspeitas.

Além de ocupar a linha dos criminosos, a Apate fornece dados fictícios para rastrear tentativas de uso em sistemas bancários. Quando um golpista tenta validar o cartão ou acessar a conta, o banco parceiro recebe o alerta e pode identificar a origem da fraude.

Cenário de perdas bilionárias acelera adoção de IA defensiva

Relatórios do setor estimam que prejuízos causados por golpes que utilizam inteligência artificial alcancem US$ 40 bilhões por ano até 2027. Só nos Estados Unidos, a média foi de 153 milhões de robocalls por dia em janeiro deste ano. Especialistas apontam que, sem ferramentas equivalentes, empresas e consumidores ficam em desvantagem perante criminosos que recorrem a deepfakes, clonagem de voz e ataques automatizados.

Bancos, processadoras de pagamento e companhias de comércio eletrônico já aplicam redes neurais para identificar padrões fraudulentos e anomalias biométricas. Entretanto, iniciativas independentes — como Kitboga, Daisy e Apate — demonstram que abordagens criativas podem complementar sistemas corporativos, elevando o custo da fraude e reduzindo o impacto sobre vítimas mais vulneráveis.

Para quem deseja acompanhar outras iniciativas tecnológicas que protegem o consumidor, vale conferir a cobertura permanente em nossa editoria de Tecnologia.

O uso de IA na defesa contra golpes ainda enfrenta desafios de custo e escala, mas casos práticos indicam que a estratégia de “lutar fogo com fogo” começa a produzir resultados concretos. À medida que fraudadores aperfeiçoam seus métodos, a colaboração entre criadores independentes, operadoras e instituições financeiras tende a ganhar importância.

Curiosidade

Um estudo de 2023 mostrou que bastam apenas três segundos de áudio para clonar uma voz com IA. A recomendação de especialistas é criar uma palavra-código familiar para confirmar identidades em situações de emergência. Assim, mesmo que o timbre pareça autêntico, o golpista terá dificuldade em comprovar que é realmente quem diz ser.

Quando você efetua suas compras por meio dos links disponíveis aqui no RN Tecnologia, podemos receber uma comissão de afiliado, sem que isso acarrete nenhum custo adicional para você!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *