Golpes com IA, deepfakes e biometria: os novos ataques digitais que exigem atenção redobrada

A inteligência artificial vem transformando o mundo dos negócios, trazendo mais agilidade e inovação. Mas, junto com os avanços, surgem também novas formas de fraude. Golpes digitais que usam IA generativa, deepfakes e clonagem de voz ou rosto estão crescendo e exigem cada vez mais atenção de empresas e consumidores.

No setor financeiro, esses ataques representam um risco real — tanto para as instituições, que precisam garantir a segurança de seus sistemas, quanto para os clientes, que podem ser vítimas de fraudes cada vez mais sofisticadas.

O que são os deepfakes e como eles são usados em golpes

O termo deepfake vem da combinação de “deep learning” (aprendizado profundo) com “fake” (falso).
Ele se refere à criação de imagens, vídeos ou áudios falsos gerados por inteligência artificial, capazes de imitar com perfeição rostos, expressões e vozes humanas.
Essa tecnologia, antes usada apenas em cinema e entretenimento, tornou-se acessível a qualquer pessoa — e, infelizmente, também a criminosos.

Nos últimos anos, os golpes com vídeos falsos se multiplicaram.
Um exemplo recente foi o uso indevido da imagem da modelo Gisele Bündchen em anúncios fraudulentos para atrair vítimas a investimentos falsos.
Casos assim mostram como a manipulação digital pode enganar milhares de pessoas, usando rostos e falas familiares para dar aparência de credibilidade a fraudes.

Os criminosos utilizam deepfakes em diferentes formatos:

  • Vídeos falsos de executivos autorizando transações;

  • Campanhas falsas com celebridades ou influenciadores;

  • Perfis falsos em videoconferências, imitando clientes, parceiros ou chefes.

Esses golpes se apoiam em uma premissa simples: quanto mais real o conteúdo parece, mais fácil é enganar.
Por isso, a prevenção começa pela cautela e pela verificação de origem de qualquer conteúdo audiovisual.

Como se proteger de vídeos e deepfakes falsos

  • Desconfie de vídeos com conteúdo inesperado, especialmente se pedirem dinheiro, senha, código de autenticação ou acesso a contas;

  • Evite compartilhar vídeos ou fotos pessoais com desconhecidos — criminosos podem usar seu rosto para gerar deepfakes;

  • Cheque fontes oficiais: campanhas legítimas de bancos, fintechs e empresas sempre são divulgadas em perfis verificados e canais institucionais;

  • Nunca grave vídeos sob solicitação de estranhos, mesmo que pareçam profissionais de atendimento, promotores de sorteios ou vagas de emprego;

  • Pesquise o nome da campanha ou pessoa citada: se houver reclamações ou alertas em sites e redes, pode ser golpe.

Clonagem de voz: quando a fala vira ferramenta de fraude

A clonagem de voz é uma das técnicas mais perigosas entre as novas fraudes digitais.
Com poucos segundos de áudio — obtidos por ligações, mensagens de voz ou vídeos publicados em redes sociais — a IA é capaz de reproduzir com precisão o timbre, a entonação e até as pausas naturais da fala de uma pessoa.

Os criminosos utilizam essas vozes clonadas para:

  • Pedir transferências ou PIX “urgentes”;

  • Autorizar transações em nome de terceiros;

  • Se passar por familiares, gestores ou executivos para enganar funcionários;

  • Validar operações em centrais telefônicas com autenticação por voz.

Em golpes corporativos, o ataque é ainda mais sofisticado: o fraudador liga para o setor financeiro se passando pelo diretor da empresa, usando voz clonada e vocabulário técnico.
Muitas vezes, a vítima acredita estar recebendo uma ordem legítima e realiza o pagamento.

Como se proteger da clonagem de voz

  • Evite atender ligações em ambientes barulhentos ou com outras pessoas próximas, pois criminosos podem capturar fragmentos de áudio para montar amostras de voz;

  • Atenda chamadas desconhecidas em silêncio nos primeiros segundos — golpes de captura de voz utilizam a primeira fala (“alô”, por exemplo) como base de clonagem;

  • Bloqueie números de telefone desconhecidos e evite retornar chamadas de contatos não salvos;

  • Desconfie de pedidos urgentes feitos por voz, mesmo que o áudio pareça de alguém conhecido;

  • Confirme por outro canal (mensagem, e-mail oficial, ligação do número institucional) antes de realizar qualquer transferência;

  • Reduza sua exposição de voz nas redes sociais, evitando publicar vídeos ou áudios com informações pessoais.

Reconhecimento facial e biometria: quando a identidade é manipulada

Outra vertente dos golpes com IA envolve o uso indevido de imagens e dados biométricos.
A biometria facial, usada em aplicativos bancários, redes sociais e portais de governo, tornou-se alvo de criminosos que utilizam fotos, vídeos e máscaras digitais para simular o rosto de outra pessoa.

Com tecnologias de deepfake facial, é possível burlar sistemas de autenticação que exigem selfies ou “provas de vida” simples.
Em alguns casos, criminosos chegam a alterar dados de cadastros oficiais, como contas em aplicativos de serviços públicos ou carteiras digitais, para obter empréstimos e benefícios indevidos.

Como se proteger de fraudes biométricas e uso indevido de imagem

  • Nunca envie fotos ou vídeos a desconhecidos ou empresas sem credibilidade — especialmente se pedirem selfies segurando documentos;

  • Evite cadastros em plataformas pouco conhecidas, promoções “imperdíveis” ou aplicativos que solicitam acesso à câmera;

  • Verifique sempre se o site tem protocolo de segurança (https) e se pertence a uma instituição legítima;

  • Desconfie de solicitações de “atualização de cadastro” enviadas por SMS, e-mail ou redes sociais;

  • Mantenha aplicativos e sistemas operacionais atualizados, pois versões antigas são mais vulneráveis a falhas de autenticação;

  • Utilize autenticação em múltiplos fatores (MFA): combine biometria com senha, token ou verificação em app.

Riscos para bancos, empresas e consumidores

Os golpes baseados em inteligência artificial impactam diretamente a confiança, a segurança e a credibilidade do sistema financeiro.
A sofisticação das ferramentas de clonagem de voz, deepfakes e falsificação biométrica cria um novo tipo de ameaça: uma fraude que não depende apenas de invasão de sistemas, mas da manipulação convincente da própria identidade humana.

Esses ataques têm efeitos graves em diferentes frentes:

• Roubo de identidade digital

Criminosos têm usado dados vazados — como CPF, selfies e gravações de voz — para recriar identidades completas em ambiente digital.
Com isso, conseguem abrir contas bancárias, solicitar empréstimos, contratar serviços e até movimentar valores em nome de terceiros.
O uso de deepfakes aumenta o poder de convencimento nas etapas de verificação facial e vídeo, enganando sistemas de autenticação e analistas humanos.
Esse tipo de fraude não apenas causa prejuízos financeiros imediatos, mas também gera longos processos de contestação e restauração da identidade para a vítima.

• Autorização fraudulenta de transações

Outra ameaça crescente é o uso de voz e vídeo clonados para simular autorizações legítimas.
Em alguns casos, o criminoso faz uma chamada de vídeo aparentando ser o titular da conta, imitando expressões e timbre de voz.
Em ambientes corporativos, isso pode significar a aprovação falsa de pagamentos, transferências ou investimentos, com aparência de total legitimidade.
Essas situações colocam em risco não apenas o cliente, mas também a própria governança financeira das empresas, que precisam comprovar processos de verificação robustos para evitar prejuízos e responsabilidades jurídicas.

• Vazamento e uso indevido de dados sensíveis

Selfies, gravações, documentos escaneados e dados biométricos — informações que deveriam reforçar a segurança — tornam-se alvos valiosos.
Uma vez obtidos, esses dados podem ser usados para criar perfis falsos e treinar modelos de IA que imitam pessoas reais.
O resultado é um ciclo de risco contínuo: quanto mais informações pessoais são publicadas ou vazadas, mais o criminoso aperfeiçoa sua capacidade de enganar sistemas e pessoas.
Além dos danos individuais, isso representa uma ameaça à privacidade e à proteção de dados pessoais, princípios centrais da LGPD.

• Impacto reputacional e perda de confiança

Para as instituições financeiras, o maior ativo é a credibilidade.
Um golpe associado indevidamente ao nome de um banco, executivo ou marca pode abalá-la profundamente, mesmo que a instituição não tenha relação direta com o crime.
O uso de deepfakes para promover falsos investimentos, por exemplo, tem sido comum: celebridades e executivos aparecem em vídeos “recomendando” produtos inexistentes.
Esses casos comprometem a confiança do público, e o custo de reparar a reputação — com comunicação, investigação e ressarcimentos — pode ser alto.
Por isso, a prevenção reputacional hoje é também uma estratégia de cibersegurança.

• Desafios regulatórios e responsabilidade compartilhada

As legislações atuais ainda estão se adaptando à velocidade da IA generativa.
No Brasil, não há regulamentação específica sobre deepfakes, e o uso indevido de voz e imagem entra em zonas cinzentas do ponto de vista jurídico.
Isso cria um cenário de responsabilidade compartilhada entre bancos, empresas de tecnologia e usuários, especialmente em casos de autenticação fraudada.
Enquanto o Banco Central e a Autoridade Nacional de Proteção de Dados (ANPD) avançam em diretrizes, as instituições precisam adotar políticas internas de prevenção, rastreabilidade e transparência no uso de dados biométricos e ferramentas de verificação digital.
A ausência de protocolos claros pode transformar uma fraude isolada em um problema jurídico e regulatório de grande proporção.

O futuro da segurança digital

Com a IA evoluindo em alta velocidade, o desafio agora é manter a segurança na mesma proporção.
Especialistas alertam que veremos cada vez mais deepfakes sob demanda, gerados em segundos e com realismo quase total.
Isso exigirá novas soluções de verificação de autenticidade, além de regulamentações específicas para o uso ético dessas tecnologias.

Para o setor financeiro, o foco deve ser duplo: investir em tecnologia antifraude e em educação digital.
A confiança — base de qualquer relação bancária — depende de um equilíbrio entre inovação e proteção.

Conclusão

Os golpes com inteligência artificial mostram que, na era digital, a segurança é tão inteligente quanto o cuidado de quem a utiliza.
Com atenção, tecnologia e informação, é possível reduzir riscos e manter a confiança mesmo em um cenário de ameaças cada vez mais sofisticadas.


💡 Continue acompanhando o Blog da AQBank e saiba como a tecnologia financeira pode ser inovadora e segura ao mesmo tempo.

Anterior
Anterior

Transforme a conexão entre sua empresa e seus clientes com o CRM da AQBank Omni

Próximo
Próximo

Vale-Cultura: incentive o acesso à cultura e fortaleça a retenção de talentos com o +Benefícios da AQBank