Vagas falsas, áudios clonados de gestores e documentos manipulados já miram o RH — saiba como blindar seus processos antes que o golpe chegue.

As fraudes digitais evoluíram tão rápido que muitas empresas ainda não perceberam que o RH virou o alvo preferido dos criminosos. Hoje, um áudio do “gestor” pedindo uma alteração urgente, um candidato que não é quem aparece na tela ou uma vaga falsa em nome da sua empresa podem gerar prejuízos difíceis de reparar.

E o mais assustador? Tudo isso pode ser criado com deepfake em questão de horas.

A tecnologia que antes imitava celebridades agora se sofisticou ao ponto de clonar rostos, vozes, textos e expressões faciais com precisão. E segundo dados da Sumsub, divulgados em 2025, golpes envolvendo deepfakes cresceram 126% em um ano — um salto que escancarou a fragilidade de processos corporativos que dependem de validação digital.

Para o RH, a ameaça é ainda maior: entrevistas remotas, documentos sensíveis, comunicação interna e solicitações de folha formam o ambiente perfeito para a ação criminosa.

O que é deepfake e por que ele virou uma ameaça para o RH

Deepfake é uma técnica baseada em IA e aprendizado profundo (deep learning) capaz de criar vídeos, áudios e imagens extremamente realistas, misturando rostos, vozes e comportamentos.
Segundo a Serasa Experian (31/01/2025), essa tecnologia já é usada para:

  • criar vídeos falsos de pessoas reais;

  • clonar voz para burlar autenticação;

  • manipular textos imitando estilo de escrita;

  • fraudar transmissões em tempo real.

É por isso que golpes que antes exigiam grande preparo técnico agora podem ser feitos com aplicativos acessíveis e fáceis de usar.

Como deepfakes aumentaram o risco para equipes de RH

Os avanços recentes da inteligência artificial colocaram o RH em um cenário de risco crescente. Processos que passaram a ser 100% digitais — como entrevistas por vídeo, envio de documentos, integração remota e comunicação com gestores — se tornaram terreno fértil para golpes sofisticados que usam deepfakes para enganar colaboradores e candidatos.

Segundo a Serasa Experian (31/01/2025), criminosos já utilizam vídeos e áudios manipulados para se passar por pessoas reais com alto grau de precisão. A tecnologia também permite criar textos que imitam estilos de escrita e perfis falsos em redes sociais, aumentando a superfície de ataque.

Com isso, atividades rotineiras do RH passaram a ser afetadas:

  • entrevistas virtuais, que hoje podem ser adulteradas com vídeo em tempo real;

  • envio de documentos, facilmente explorado com perfis falsos que usam fotos geradas por IA;

  • pedidos de gestores, com voz clonada para solicitar dados sensíveis ou mudanças urgentes;

  • alterações cadastrais, vulneráveis a golpes que usam mensagens falsas para trocar dados bancários;

  • vagas falsas, que usam o nome da empresa para enganar candidatos e roubar identidades.

O TI Inside (14/05/2024) reforça que fraudes com manipulação de rostos cresceram até 3.000% em um único ano, e que setores com altos volumes de validação de identidade — como RH — estão entre os mais afetados.

Não significa que o RH seja o principal alvo, mas sim que se tornou mais exposto: muita informação sensível circula, muitos contatos acontecem e grande parte dos processos depende de confiança digital.

O resultado é claro: deepfakes ampliaram a vulnerabilidade do RH, que agora precisa incluir verificação digital avançada, treinamento e novos protocolos para evitar que golpes entrem pela porta da frente da empresa.

Os golpes mais comuns contra o RH usando deepfake

1. Vagas falsas usando nome da empresa

Criminosos criam perfis falsos no LinkedIn, WhatsApp ou Instagram, muitas vezes com rostos criados por IA, para conduzir processos seletivos inexistentes.

Além das redes sociais, esses golpistas também publicam vagas com o logo da empresa em portais como o Indeed e até criam sites falsos da área de Carreiras para tornar o processo ainda mais convincente.

2. Entrevistas com vídeos manipulados

A Serasa Experian alerta para o aumento de deepfake em tempo real, capaz de burlar biometria facial durante chamadas de vídeo.

3. Áudios falsos de gestores

Clonagem de voz — inclusive com sotaque, pausas e respiração — pedindo:

  • alteração de dados bancários,

  • listas de colaboradores,

  • envio de documentos,

  • liberações urgentes.

4. Textos que imitam estilo de escrita

Pedidos de acesso, solicitações de documentos ou instruções enviadas por e-mail e chat interno, mas escritos por IA.

Como identificar deepfakes: sinais práticos para o RH

Segundo TCE-ES e Serasa Experian, os principais sinais são:

  • Piscar irregular ou muito lento

  • Expressões faciais travadas

  • Sombra estranha entre o rosto e o pescoço

  • Lábios dessincronizados com o áudio

  • Movimentos robóticos

  • Variações abruptas na cor da pele

  • Voz metálica, com cortes ou falta de emoção

É uma análise simples, mas que exige treinamento contínuo.

Como proteger seu RH de deepfakes e golpes digitais

1. Padronize canais oficiais de comunicação

Pedidos sensíveis devem seguir um único fluxo aprovado. Nada de solicitações urgentes por mensagens sem verificação.

2. Exija verificação dupla em alterações sensíveis

Alterações de dados bancários, endereço ou documentos só devem ser autorizadas após:

  • confirmação por outro canal,

  • validação por dois colaboradores,

  • registro formal.

3. Implemente validação de identidade com múltiplas camadas

A Serasa Experian recomenda tecnologias como:

  • Liveness (prova de vida) — certificada pelo iBeta

  • Biometria facial e de voz

  • Biometria cadastral e transacional

Essas ferramentas conseguem barrar vídeos manipulados, fotos falsas e máscaras hiper-realistas.

4. Use ferramentas de detecção de deepfake

Indicadas pelo TCE-ES:

  • Deepware Scanner

  • Microsoft Video Authenticator

São soluções que identificam manipulação de imagem e vídeo.

5. Crie políticas claras de uso de mídia e conteúdos internos

Conforme aponta o TI Inside (14/05/2024):

  • defina como vídeos, áudios e documentos devem ser compartilhados;

  • estabeleça regras para verificação de autenticidade;

  • restrinja acessos a sistemas e servidores.

6. Treine sua equipe regularmente

Segundo os três artigos, treinamento é o maior fator de proteção:

  • ensinar sinais de deepfake,

  • fazer simulações internas,

  • capacitar novos colaboradores,

  • criar cultura de verificação e cautela.

Como proteger candidatos de vagas falsas em nome da sua empresa

  • Mantenha página oficial de carreiras sempre atualizada

  • Divulgue vaga somente em canais oficiais

  • Proíba recrutadores de usar contas pessoais

  • Oriente candidatos sobre o fluxo correto

  • Publique alertas quando detectar golpes

Isso reduz danos reputacionais e protege dados de terceiros.

Checklist final para blindar o RH

  • Definir fluxos oficiais de comunicação

  • Verificação dupla para dados sensíveis

  • Liveness + biometria nos processos remotos

  • Ferramentas de detecção de deepfake

  • Treinamentos regulares

  • Política de vagas oficiais

  • Controle de acesso rígido

  • Backups e segurança digital

  • Orientação contínua sobre engenharia social

  • Canais oficiais claros para candidatos e colaboradores

Deepfakes deixaram de ser entretenimento: hoje são ferramentas de fraude que crescem em ritmo acelerado e já afetam diretamente o setor de RH. Com golpes que vão desde vagas falsas até clonagem de voz de gestores, a área que cuida de pessoas também precisa assumir seu papel como escudo de segurança da empresa.

A boa notícia é que a combinação entre processos bem definidos, tecnologia antifraude e treinamento cria uma barreira capaz de impedir a maioria desses ataques — antes que eles causem danos reais.

Quando o RH se protege, a empresa inteira fica mais segura.