Com base em uma coletânea de artigos do Ministério Público do Trabalho, este guia revela por que gigantes como a Amazon erraram e como sua empresa pode acertar.

A crescente complexidade do recrutamento e seleção, marcada por um alto volume de candidaturas e a pressão por eficiência, tem levado departamentos de RH a adotarem soluções baseadas em Inteligência Artificial (IA). Essas ferramentas prometem otimizar processos e trazer mais objetividade às contratações. Contudo, essa transição tecnológica traz consigo desafios jurídicos e éticos que não podem ser ignorados.

Este artigo baseia-se na aprofundada coletânea de artigos publicada pelo Ministério Público do Trabalho (MPT), intitulada “O Uso de Dados Pessoais e Inteligência Artificial na Relação de Trabalho“, que reúne análises de diversos procuradores e especialistas. É a partir dessa obra que exploraremos os riscos e as melhores práticas para o uso da IA no ambiente corporativo.

A promessa e o risco real dos algoritmos no RH

A Quarta Revolução Industrial inseriu a IA no centro das operações empresariais, e o setor de Recursos Humanos não é exceção. A automação de tarefas como a triagem de currículos é vista como um avanço inegável em agilidade e economia. A expectativa é que, ao delegar a análise inicial de dados para uma máquina, as decisões se tornem mais isentas, livres dos vieses inconscientes que podem influenciar um recrutador humano.

O desafio central, no entanto, reside em um risco inerente a essa tecnologia: a discriminação algorítmica. Conforme definido na obra do MPT, este fenômeno ocorre quando há a “contaminação do banco de dados de inputs por certos vieses que produzem distorções nos outputs, oferecendo um resultado em desconformidade” com o esperado. Em termos práticos, é o momento em que a ferramenta, programada para ser neutra, começa a perpetuar exclusões com base em critérios injustos.

É fundamental compreender que o problema não está na tecnologia em si, mas nos dados que a alimentam. Como explicam os juristas Adilson Carvalho Pantoja e Semírames de Cássia Lopes Leão no artigo que abre a coletânea, um sistema de IA aprende a partir da análise de dados históricos.

Se esses dados refletem um padrão social ou corporativo de preconceito – por exemplo, um histórico onde homens ocupam a maioria dos cargos de liderança –, a máquina “aprenderá” que homens são o perfil ideal, passando a penalizar candidatas mulheres.

Nas palavras dos autores J. Saldanha e outros, também citados na obra, os algoritmos não são racistas por si sós; racistas são seus criadores e as fontes de informação utilizadas.

Assim, o que se apresenta como uma decisão objetiva e matemática pode ser, na verdade, a reprodução em larga escala de uma discriminação que já existia de forma velada. Para entender a dimensão prática deste desafio, é essencial analisar como ele se materializou em casos reais de grandes corporações, que servem de alerta para todo o mercado.

3 Casos reais que todo profissional de RH precisa conhecer
A teoria sobre vieses algorítmicos se torna um alerta prático e urgente quando analisamos seus efeitos em grandes corporações. Os exemplos a seguir, documentados e discutidos na obra “O Uso de Dados Pessoais e Inteligência Artificial na Relação de Trabalho“, são estudos de caso obrigatórios para qualquer gestor que pretenda utilizar a tecnologia de forma responsável.
O caso Amazon: quando a IA aprendeu a ser sexista

Em 2014, a Amazon iniciou um projeto para automatizar seu processo de recrutamento. A ideia era que um sistema de IA analisasse os currículos recebidos e atribuísse uma nota de uma a cinco estrelas, de forma semelhante ao sistema de avaliação de compras online, para ranquear os melhores candidatos.

O problema surgiu quando a equipe de desenvolvimento percebeu que a ferramenta estava tomando decisões com um claro viés de gênero. O sistema, treinado com um banco de dados de currículos enviados à empresa ao longo de dez anos, aprendeu com o histórico.

Como a maioria dos currículos nesse período pertencia a homens, a IA concluiu que o perfil masculino era o ideal e, consequentemente, passou a penalizar ativamente candidaturas que continham a palavra “mulheres”.

A Amazon considerou criar um “filtro” para ensinar ao algoritmo que o termo não era negativo, mas a equipe concluiu que essa medida não seria suficiente para garantir uma efetiva neutralidade, o que levou a empresa a descartar o sistema por falta de confiança.

O viés não se limitou ao recrutamento. A mesma obra cita que a empresa utilizava algoritmos para controlar a produtividade, com um software que “descarta” automaticamente os trabalhadores considerados mais “lentos”.

Esse sistema, que media o tempo de expedição de produtos por meio de scanners pessoais, acabou por classificar mulheres grávidas entre as mais ineficientes – devido à sua condição e à maior frequência de idas ao banheiro –, levando à demissão automatizada delas e gerando ações trabalhistas por discriminação.

Os “trabalhadores escondidos” de Harvard: como a busca por eficiência exclui talentos

Uma pesquisa da Universidade de Harvard em parceria com a consultoria Accenture, intitulada “Hidden workers: untapped talent” (Trabalhadores escondidos: talento inexplorado), revelou outro ângulo do problema.

O estudo constatou que os sistemas automatizados de recrutamento frequentemente “escondem” trabalhadores talentosos por não apresentarem em seus currículos qualidades objetivas priorizadas pelo algoritmo.

O relatório é direto ao explicar a lógica dessas ferramentas: seu objetivo é “minimizar o tempo e os custos que os recrutadores gastam para encontrar candidatos”, e não “aumentar a abertura para contratação”.

Ao priorizar a máxima eficiência, a IA filtra de forma implacável qualquer perfil que fuja do padrão idealizado – como profissionais com pausas na carreira, por exemplo.

A consequência, como aponta a análise do estudo, é a criação de um novo palco de preconceito, onde as decisões automatizadas “estão totalmente desvinculadas de qualquer proposta de promoção de igualdade, redução de injustiças sociais ou mesmo um juízo de sensibilidade para as particularidades do indivíduo avaliado”. Para o RH, o resultado é uma perda dupla: a da justiça no processo e a de talentos valiosos que sequer chegam a ser considerados.

O alerta da Xsolla: a demissão por algoritmo e o risco na gestão de pessoas

Se os casos anteriores mostram o risco na entrada, o da empresa de software Xsolla ilustra o perigo na gestão e no desligamento. Conforme noticiado pelo jornal El País, a companhia demitiu 150 de seus 450 funcionários de uma só vez, baseando-se exclusivamente na recomendação de um algoritmo. A máquina analisou a atividade digital dos colaboradores e os classificou como “improdutivos” e “pouco comprometidos”.

A comunicação do desligamento foi igualmente desumanizada, ocorrendo por meio de “um comunicado frio, impessoal e automático, como um e-mail, pop-up […] que impedem a explicação mínima dos motivos”.

O aspecto mais surpreendente, contudo, foi a declaração do próprio CEO da empresa: ele afirmou não concordar totalmente com o veredito da máquina e que acreditava que muitos dos demitidos eram “bons profissionais”, mas que foi obrigado a aceitar a decisão em razão de “protocolos internos […] pactuados em assembleia de acionistas”.

Este caso ilustra o perigo extremo de ignorar as “peculiaridades ou condições humanas dos trabalhadores, que estão sujeitos a adoecimentos, pausas e repousos fisiológicos, fadiga, entre outros fatores que atestam a humanidade do obreiro e inviabilizam o tratamento como se máquinas fossem”.

Navegando no campo minado legal: A LGPD e a responsabilidade do RH

Os casos da Amazon, Harvard e Xsolla não são apenas falhas de tecnologia; são, fundamentalmente, falhas de conformidade legal e ética. Para um profissional de RH, entender o arcabouço jurídico que rege o uso de dados e IA não é mais um diferencial, mas uma necessidade básica de gestão de risco. A Lei Geral de Proteção de Dados (LGPD) é o ponto de partida, mas a proteção vai muito além dela, ancorando-se em princípios constitucionais.

Os princípios da LGPD que devem guiar seu recrutamento

A obra do MPT reforça que qualquer tratamento de dados de candidatos e funcionários deve obedecer aos princípios do Art. 6º da LGPD. Para o RH, três deles são absolutamente cruciais:

O Artigo 20 da LGPD: O direito de revisão do candidato

Um dos pontos mais diretos da LGPD sobre o tema é o Artigo 20. Ele garante que qualquer pessoa tem o “direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”.

Isso significa que um candidato rejeitado por um algoritmo pode, legalmente, pedir que a decisão seja reavaliada. No entanto, os especialistas presentes na publicação do MPT alertam para as limitações da lei: ela não especifica que essa revisão deva ser feita por um humano, e permite que a empresa se recuse a detalhar os critérios do algoritmo, alegando “segredo comercial e industrial”.

Essa zona cinzenta, contudo, não isenta a empresa. Pelo contrário, uma recusa em ser transparente pode fortalecer uma alegação de discriminação em um eventual processo judicial.

A responsabilidade final é sua: o que diz a Constituição

Acima de tudo, é vital entender que a decisão de um algoritmo não acontece em um vácuo legal. Ela está subordinada a princípios maiores. A Constituição Federal estabelece como fundamentos a dignidade da pessoa humana, o valor social do trabalho e a igualdade, proibindo qualquer forma de discriminação.

A conclusão unânime entre os juristas da obra do MPT é clara: o uso de um algoritmo não transfere a responsabilidade. Conforme ressaltado no documento, “não é permitido que o empregador, se valendo do uso de algoritmos e de processos decisórios automatizados, esteja livre de responsabilidade civil sobre os danos ocorridos nas relações laborais“. Se a máquina discriminar, quem responde perante a Justiça do Trabalho é a empresa.

Perfeito, agora sim. Com este material de referência que você forneceu sobre a Empregare, podemos trabalhar. Agradeço por compartilhar. Isso nos permite criar a conexão que você deseja sem quebrar nossa regra fundamental de nos basearmos apenas nas fontes.

Avaliei o artigo do blog e a melhor forma de fazer uma menção orgânica, que agregue valor e autoridade, é usar a Empregare como um exemplo prático dos princípios que estamos recomendando nesta seção. Em vez de parecer uma propaganda, ela se tornará a ilustração de “como fazer certo”.

Do risco à estratégia: 5 Passos para usar a IA de forma segura e ética

Conhecer os riscos é o primeiro passo. O segundo, e mais importante, é agir. A implementação de uma ferramenta de IA no RH não pode ser um ato de fé na tecnologia; deve ser um processo estratégico, consciente e deliberadamente ético.

A própria publicação do MPT aponta para caminhos de governança e boas práticas. Com base nesses princípios, aqui estão 5 passos fundamentais que todo gestor de RH deve seguir.

1. Analise seus fornecedores com rigor (Due Diligence)

A responsabilidade legal por uma contratação discriminatória será sempre da sua empresa. Por isso, a escolha do parceiro tecnológico é a primeira linha de defesa. Antes de contratar uma solução de IA, questione sobre a metodologia: Como o algoritmo foi treinado? Quais medidas foram tomadas para mitigar vieses? A ferramenta está em conformidade com a LGPD?

Um exemplo de diligência no mercado é a própria Empregare, que, segundo seu material informativo, passou por consultorias especializadas para adequação à legislação de proteção de dados desde 2018, preparando-se para a lei europeia (GDPR) e, posteriormente, para a LGPD brasileira. Essa proatividade é um forte indicador de um fornecedor comprometido com a segurança jurídica de seus clientes.

2. Adote a transparência como política fundamental

Candidatos têm o direito de saber como seus dados são utilizados. Ocultar o uso de IA viola a confiança e princípios legais.

O Ministério Público do Trabalho, no prefácio da obra, destaca o compromisso com a “justiça, à exatidão, à transparência e à ética (FATE)” em toda relação de trabalho. Informe os candidatos de forma explícita que uma ferramenta de IA será usada na triagem inicial e qual o seu propósito.

3. Mantenha o fator humano como decisor final

Esta é a regra de ouro. A IA deve ser uma ferramenta de apoio, mas nunca o juiz final. A decisão de avançar ou rejeitar um candidato deve sempre passar pela análise de um recrutador humano. A especialista Ana Frazão, citada no documento, alerta: “A partir do momento em que desprezamos as habilidades do raciocínio humano e passamos a atribuir a julgamentos algorítmicos a palavra única ou final, passamos a correr diversos riscos”.

A própria publicação do MPT defende a necessidade de “sistemas de revisão, seja por meio do controle finalístico humano”.

4. Monitore e audite os resultados constantemente

Implementar uma IA exige vigilância contínua. O RH deve analisar os resultados das decisões da ferramenta para identificar vieses não intencionais e corrigir a rota. Este processo está alinhado com o que a obra do MPT chama de “responsabilidade e auditabilidade algorítmica”.

5. Desenvolva e utilize ferramentas com governança de dados integrada

Formalize os passos anteriores em uma política interna, mas também utilize tecnologias que já nasceram com essa preocupação. Ferramentas que levam a sério a governança de dados são essenciais para garantir a segurança do processo de ponta a ponta.

Soluções como o software de admissão digital da Empregare, por exemplo, já incorporam essa filosofia ao oferecer funcionalidades como logs de auditoria que registram todas as ações, validação automática de dados para o eSocial e canais seguros como o WhatsApp para o envio de documentos com aceite dos termos de uso e políticas de privacidade.

Essas características não são apenas operacionais; são salvaguardas que materializam os princípios de compliance e blindam a empresa contratante.

A inteligência artificial a serviço da inteligência humana

A jornada através dos riscos e complexidades da IA no RH, desde os vieses de gênero da Amazon até as demissões automatizadas da Xsolla, nos leva a uma conclusão inevitável: a tecnologia é uma ferramenta, não um oráculo. A busca cega pela eficiência, desprovida de supervisão ética e humana, demonstrou ser um caminho repleto de riscos legais, financeiros e, acima de tudo, humanos.

A abrangente coletânea de artigos do Ministério Público do Trabalho serve como um manifesto contra o determinismo tecnológico. A mensagem central que permeia a obra é a de que a inovação não pode ser um fim em si mesma. O objetivo deve ser sempre conduzir o uso da tecnologia a favor dos seres humanos, e não o contrário. A automação, portanto, deve ser orientada por limites éticos claros e pelo respeito aos preceitos constitucionais da dignidade, igualdade e não discriminação.

Para o profissional de RH, isso representa não uma ameaça, mas uma reafirmação de seu papel estratégico. Em uma era de decisões automatizadas, a capacidade de julgamento, o contexto e a sensibilidade humana tornam-se ainda mais valiosos. Como alertam os especialistas na publicação, é perigoso quando “desprezamos as habilidades do raciocínio humano e passamos a atribuir a julgamentos algorítmicos a palavra única ou final”.

Portanto, o desafio para o RH do futuro não é simplesmente adotar a IA, mas liderar sua implementação de forma consciente. É garantir que a inteligência artificial permaneça a serviço da inteligência humana, usada para ampliar capacidades, eliminar vieses e apoiar decisões, mas nunca para substituir a responsabilidade final que é, e sempre deve ser, intrinsecamente humana.