Golpes com IA, deepfakes e biometria: os novos ataques digitais que exigem atenção redobrada
A inteligência artificial vem transformando o mundo dos negócios, trazendo mais agilidade e inovação. Mas, junto com os avanços, surgem também novas formas de fraude. Golpes digitais que usam IA generativa, deepfakes e clonagem de voz ou rosto estão crescendo e exigem cada vez mais atenção de empresas e consumidores.
No setor financeiro, esses ataques representam um risco real — tanto para as instituições, que precisam garantir a segurança de seus sistemas, quanto para os clientes, que podem ser vítimas de fraudes cada vez mais sofisticadas.
O que são os deepfakes e como eles são usados em golpes
O termo deepfake vem da combinação de “deep learning” (aprendizado profundo) com “fake” (falso).
Ele se refere à criação de imagens, vídeos ou áudios falsos gerados por inteligência artificial, capazes de imitar com perfeição rostos, expressões e vozes humanas.
Essa tecnologia, antes usada apenas em cinema e entretenimento, tornou-se acessível a qualquer pessoa — e, infelizmente, também a criminosos.
Nos últimos anos, os golpes com vídeos falsos se multiplicaram.
Um exemplo recente foi o uso indevido da imagem da modelo Gisele Bündchen em anúncios fraudulentos para atrair vítimas a investimentos falsos.
Casos assim mostram como a manipulação digital pode enganar milhares de pessoas, usando rostos e falas familiares para dar aparência de credibilidade a fraudes.
Os criminosos utilizam deepfakes em diferentes formatos:
Vídeos falsos de executivos autorizando transações;
Campanhas falsas com celebridades ou influenciadores;
Perfis falsos em videoconferências, imitando clientes, parceiros ou chefes.
Esses golpes se apoiam em uma premissa simples: quanto mais real o conteúdo parece, mais fácil é enganar.
Por isso, a prevenção começa pela cautela e pela verificação de origem de qualquer conteúdo audiovisual.
Como se proteger de vídeos e deepfakes falsos
Desconfie de vídeos com conteúdo inesperado, especialmente se pedirem dinheiro, senha, código de autenticação ou acesso a contas;
Evite compartilhar vídeos ou fotos pessoais com desconhecidos — criminosos podem usar seu rosto para gerar deepfakes;
Cheque fontes oficiais: campanhas legítimas de bancos, fintechs e empresas sempre são divulgadas em perfis verificados e canais institucionais;
Nunca grave vídeos sob solicitação de estranhos, mesmo que pareçam profissionais de atendimento, promotores de sorteios ou vagas de emprego;
Pesquise o nome da campanha ou pessoa citada: se houver reclamações ou alertas em sites e redes, pode ser golpe.
Clonagem de voz: quando a fala vira ferramenta de fraude
A clonagem de voz é uma das técnicas mais perigosas entre as novas fraudes digitais.
Com poucos segundos de áudio — obtidos por ligações, mensagens de voz ou vídeos publicados em redes sociais — a IA é capaz de reproduzir com precisão o timbre, a entonação e até as pausas naturais da fala de uma pessoa.
Os criminosos utilizam essas vozes clonadas para:
Pedir transferências ou PIX “urgentes”;
Autorizar transações em nome de terceiros;
Se passar por familiares, gestores ou executivos para enganar funcionários;
Validar operações em centrais telefônicas com autenticação por voz.
Em golpes corporativos, o ataque é ainda mais sofisticado: o fraudador liga para o setor financeiro se passando pelo diretor da empresa, usando voz clonada e vocabulário técnico.
Muitas vezes, a vítima acredita estar recebendo uma ordem legítima e realiza o pagamento.
Como se proteger da clonagem de voz
Evite atender ligações em ambientes barulhentos ou com outras pessoas próximas, pois criminosos podem capturar fragmentos de áudio para montar amostras de voz;
Atenda chamadas desconhecidas em silêncio nos primeiros segundos — golpes de captura de voz utilizam a primeira fala (“alô”, por exemplo) como base de clonagem;
Bloqueie números de telefone desconhecidos e evite retornar chamadas de contatos não salvos;
Desconfie de pedidos urgentes feitos por voz, mesmo que o áudio pareça de alguém conhecido;
Confirme por outro canal (mensagem, e-mail oficial, ligação do número institucional) antes de realizar qualquer transferência;
Reduza sua exposição de voz nas redes sociais, evitando publicar vídeos ou áudios com informações pessoais.
Reconhecimento facial e biometria: quando a identidade é manipulada
Outra vertente dos golpes com IA envolve o uso indevido de imagens e dados biométricos.
A biometria facial, usada em aplicativos bancários, redes sociais e portais de governo, tornou-se alvo de criminosos que utilizam fotos, vídeos e máscaras digitais para simular o rosto de outra pessoa.
Com tecnologias de deepfake facial, é possível burlar sistemas de autenticação que exigem selfies ou “provas de vida” simples.
Em alguns casos, criminosos chegam a alterar dados de cadastros oficiais, como contas em aplicativos de serviços públicos ou carteiras digitais, para obter empréstimos e benefícios indevidos.
Como se proteger de fraudes biométricas e uso indevido de imagem
Nunca envie fotos ou vídeos a desconhecidos ou empresas sem credibilidade — especialmente se pedirem selfies segurando documentos;
Evite cadastros em plataformas pouco conhecidas, promoções “imperdíveis” ou aplicativos que solicitam acesso à câmera;
Verifique sempre se o site tem protocolo de segurança (https) e se pertence a uma instituição legítima;
Desconfie de solicitações de “atualização de cadastro” enviadas por SMS, e-mail ou redes sociais;
Mantenha aplicativos e sistemas operacionais atualizados, pois versões antigas são mais vulneráveis a falhas de autenticação;
Utilize autenticação em múltiplos fatores (MFA): combine biometria com senha, token ou verificação em app.
Riscos para bancos, empresas e consumidores
Os golpes baseados em inteligência artificial impactam diretamente a confiança, a segurança e a credibilidade do sistema financeiro.
A sofisticação das ferramentas de clonagem de voz, deepfakes e falsificação biométrica cria um novo tipo de ameaça: uma fraude que não depende apenas de invasão de sistemas, mas da manipulação convincente da própria identidade humana.
Esses ataques têm efeitos graves em diferentes frentes:
• Roubo de identidade digital
Criminosos têm usado dados vazados — como CPF, selfies e gravações de voz — para recriar identidades completas em ambiente digital.
Com isso, conseguem abrir contas bancárias, solicitar empréstimos, contratar serviços e até movimentar valores em nome de terceiros.
O uso de deepfakes aumenta o poder de convencimento nas etapas de verificação facial e vídeo, enganando sistemas de autenticação e analistas humanos.
Esse tipo de fraude não apenas causa prejuízos financeiros imediatos, mas também gera longos processos de contestação e restauração da identidade para a vítima.
• Autorização fraudulenta de transações
Outra ameaça crescente é o uso de voz e vídeo clonados para simular autorizações legítimas.
Em alguns casos, o criminoso faz uma chamada de vídeo aparentando ser o titular da conta, imitando expressões e timbre de voz.
Em ambientes corporativos, isso pode significar a aprovação falsa de pagamentos, transferências ou investimentos, com aparência de total legitimidade.
Essas situações colocam em risco não apenas o cliente, mas também a própria governança financeira das empresas, que precisam comprovar processos de verificação robustos para evitar prejuízos e responsabilidades jurídicas.
• Vazamento e uso indevido de dados sensíveis
Selfies, gravações, documentos escaneados e dados biométricos — informações que deveriam reforçar a segurança — tornam-se alvos valiosos.
Uma vez obtidos, esses dados podem ser usados para criar perfis falsos e treinar modelos de IA que imitam pessoas reais.
O resultado é um ciclo de risco contínuo: quanto mais informações pessoais são publicadas ou vazadas, mais o criminoso aperfeiçoa sua capacidade de enganar sistemas e pessoas.
Além dos danos individuais, isso representa uma ameaça à privacidade e à proteção de dados pessoais, princípios centrais da LGPD.
• Impacto reputacional e perda de confiança
Para as instituições financeiras, o maior ativo é a credibilidade.
Um golpe associado indevidamente ao nome de um banco, executivo ou marca pode abalá-la profundamente, mesmo que a instituição não tenha relação direta com o crime.
O uso de deepfakes para promover falsos investimentos, por exemplo, tem sido comum: celebridades e executivos aparecem em vídeos “recomendando” produtos inexistentes.
Esses casos comprometem a confiança do público, e o custo de reparar a reputação — com comunicação, investigação e ressarcimentos — pode ser alto.
Por isso, a prevenção reputacional hoje é também uma estratégia de cibersegurança.
• Desafios regulatórios e responsabilidade compartilhada
As legislações atuais ainda estão se adaptando à velocidade da IA generativa.
No Brasil, não há regulamentação específica sobre deepfakes, e o uso indevido de voz e imagem entra em zonas cinzentas do ponto de vista jurídico.
Isso cria um cenário de responsabilidade compartilhada entre bancos, empresas de tecnologia e usuários, especialmente em casos de autenticação fraudada.
Enquanto o Banco Central e a Autoridade Nacional de Proteção de Dados (ANPD) avançam em diretrizes, as instituições precisam adotar políticas internas de prevenção, rastreabilidade e transparência no uso de dados biométricos e ferramentas de verificação digital.
A ausência de protocolos claros pode transformar uma fraude isolada em um problema jurídico e regulatório de grande proporção.
O futuro da segurança digital
Com a IA evoluindo em alta velocidade, o desafio agora é manter a segurança na mesma proporção.
Especialistas alertam que veremos cada vez mais deepfakes sob demanda, gerados em segundos e com realismo quase total.
Isso exigirá novas soluções de verificação de autenticidade, além de regulamentações específicas para o uso ético dessas tecnologias.
Para o setor financeiro, o foco deve ser duplo: investir em tecnologia antifraude e em educação digital.
A confiança — base de qualquer relação bancária — depende de um equilíbrio entre inovação e proteção.
Conclusão
Os golpes com inteligência artificial mostram que, na era digital, a segurança é tão inteligente quanto o cuidado de quem a utiliza.
Com atenção, tecnologia e informação, é possível reduzir riscos e manter a confiança mesmo em um cenário de ameaças cada vez mais sofisticadas.
💡 Continue acompanhando o Blog da AQBank e saiba como a tecnologia financeira pode ser inovadora e segura ao mesmo tempo.