Pular para o conteúdo principal
Portal independente. Não é o site oficial do IPOG. Matrículas e ofertas oficiais em ipog.edu.br
pP
Tema · 2025-2026 · Raghavan · Kim · EEOC · AI Act · CFP

IA generativa em RH: por que viés algorítmico exige governança técnica antes da ferramenta

Empresa que adotou IA em hiring antes de definir governança comprou risco jurídico, reputacional e psicológico de uma vez só.

Resposta rápida

IA generativa em RH amplifica viés histórico, viola LGPD se mal desenhada e expõe a empresa a passivo crescente quando substitui decisão humana sem governança. A discussão deixou de ser sobre adoção — é sobre desenho. ChatGPT redigindo feedback, LLM classificando currículo, modelo prevendo turnover: todos os usos têm caminho defensável e caminho de risco. A Psicologia precisa estar na governança porque as decisões são, no fundo, decisões psicológicas: o que medir, o que ponderar, o que comunicar e o que evitar.

Tese contraintuitiva: IA não reduz viés humano — amplifica viés histórico institucionalizado

A narrativa de venda de fornecedores promete eliminação de viés. A literatura empírica é clara: IA treinada em dados históricos de uma empresa replica os padrões discriminatórios dessa empresa, com efeito multiplicador. O caso clássico da Amazon, que descontinuou modelo de triagem por penalizar currículos associados ao feminino (Reuters, 2018), virou referência da literatura. Manish Raghavan, hoje no MIT, publicou série de artigos (FAccT, 2020-2024) demonstrando que pré-screeners algorítmicos comerciais frequentemente falham em testes básicos de paridade entre grupos protegidos.

A inversão necessária: IA bem governada pode tornar viés mais visível e auditável; IA mal governada o torna invisível e sistemático. A pergunta certa não é se a empresa vai usar IA — vai. É como vai usar, com qual auditoria, com qual revisão humana e com qual responsabilização documentada. Quem entrou no jogo sem decidir essas perguntas comprou problema futuro.

Fundamentação: do paper jurídico ao chão da empresa

Pauline Kim, professora de direito do trabalho na Washington University, publicou em Boston University Law Review (2024) revisão consolidando a doutrina norte-americana sobre IA em emprego. Conclusão central: o Title VII (lei antidiscriminação dos EUA) aplica-se à IA em hiring; empresa é responsável por discriminação indireta produzida por sistema automatizado; ausência de auditoria de paridade não isenta a empresa, agrava. A EEOC publicou em 2023 guidance específico no mesmo sentido, alertando empregadores sobre o uso de ferramentas algorítmicas em seleção, promoção e avaliação.

No Brasil, a base é a LGPD (Lei 13.709/2018), especialmente o art. 20, que garante direito à revisão de decisões automatizadas que afetam interesses do titular. A Autoridade Nacional de Proteção de Dados (ANPD) emitiu enunciados sobre tratamento de dados em RH em 2024. O Conselho Federal de Psicologia publicou nota técnica reforçando que decisões com peso psicológico exigem responsabilização humana e que avaliação psicológica permanece privativa de psicólogo. Pesquisa publicada na RAE (2025) com 230 empresas brasileiras mostrou que 64% adotaram IA generativa em alguma frente de RH, mas apenas 12% tinham governança escrita sobre o uso.

"Modelos de IA herdam o viés dos dados em que foram treinados. Sem auditoria estatística e supervisão humana significativa, automatizar hiring é automatizar discriminação." — adaptado de Raghavan et al. (FAccT, 2024).

A regulação europeia avançou mais. O AI Act (2024) classifica sistemas de IA em hiring e gestão de pessoas como de alto risco, exigindo avaliação de conformidade, registro em base europeia, transparência ao candidato e supervisão humana significativa. O Brasil discute o PL 2.338/2023 com arquitetura similar. Empresa que constrói governança hoje fica preparada para regulação que chega; empresa que improvisa será forçada a refazer.

O debate aberto: até que ponto IA generativa em redação de feedback substitui ou complementa a leitura técnica do gestor. Estudo do MIT Sloan (2024) com 1.200 gestores em três continentes mostrou que feedback inteiramente gerado por IA perde credibilidade ao longo do tempo, enquanto feedback iniciado por IA e revisto substantivamente por humano mantém. A diferença é o uso — ferramenta de assistência cognitiva, não substituto de juízo profissional.

Achados-chave por estudo

Autor (Ano) País Achado central Implicação prática
Raghavan et al. (2020/2024) EUA Pré-screeners algorítmicos falham em paridade entre grupos protegidos. Auditoria estatística obrigatória, não auditoria de fornecedor.
Kim (2024) EUA Title VII se aplica a IA; empresa é responsável por discriminação indireta. Responsabilização humana documentada do uso de IA.
EEOC (2023) EUA Guidance formal sobre uso de IA em emprego. Política escrita, transparência ao candidato, revisão humana.
AI Act UE (2024) União Europeia IA em hiring classificada como alto risco; avaliação de conformidade obrigatória. Preparar governança hoje para regulação brasileira em construção.
RAE (2025) Brasil 64% das empresas usam IA em RH; apenas 12% têm governança escrita. Lacuna de governança como risco operacional imediato.

Caso composto · ilustrativo

Quando o modelo de triagem repetiu o erro humano que prometia resolver

Varejo nacional, 12.000 funcionários. Contratou fornecedor que prometia reduzir tempo de triagem em 70% via LLM proprietário lendo currículos. Sem auditoria, o sistema foi implantado em 18 vagas piloto. Seis meses depois, comitê de diversidade detectou que a aprovação para entrevista entre candidatas mulheres caiu 22 pontos percentuais; entre candidatos negros, 16 pontos. A área jurídica suspendeu o piloto. A análise técnica encontrou o padrão: o modelo havia sido treinado em dados de contratações de cinco anos da empresa, replicando — e amplificando — o viés histórico do funil.

A intervenção foi reconstruir a governança antes de retomar o uso. Comitê interdisciplinar com psicólogo organizacional, jurídico, tecnologia e diversidade definiu três regras inegociáveis. Primeira: nenhum candidato é eliminado por decisão exclusiva de IA; humano revisa e documenta. Segunda: auditoria estatística trimestral de paridade entre grupos protegidos, com gatilho automático de revisão se houver desvio acima de 5%. Terceira: transparência ao candidato sobre uso de IA na vaga, com canal de revisão acessível. O piloto retomou em três vagas com a nova governança. Em 12 meses, a paridade voltou ao baseline e o tempo de triagem caiu 41% — menos do que prometido, mas dentro do que é defensável.

Para RH

Política escrita antes da ferramenta

Definir usos permitidos, vedados e com supervisão. Auditoria estatística trimestral. Comitê multidisciplinar com poder real de veto.

Para líderes

Decisão final humana documentada

IA assiste, líder decide e documenta. Feedback gerado por IA exige revisão substantiva. Sem isso, a credibilidade da liderança erode.

Para psicólogos

Defender o que é privativo

Avaliação psicológica via SATEPSI é privativa de psicólogo. IA não substitui parecer técnico. Posicionamento ativo do CFP em curso.

Perguntas frequentes sobre IA generativa em RH

IA generativa pode triar candidatos sem violar LGPD?

Pode, sob condições rigorosas. A LGPD (Lei 13.709/2018, art. 20) garante direito de revisão humana de decisões automatizadas. Pesquisa de Raghavan et al. (FAccT, 2024) e revisão de Pauline Kim em Boston University Law Review (2024) mostraram que sistemas de IA em hiring herdam viés histórico dos dados de treinamento. O caminho defensável é decisão final humana documentada, auditoria estatística de paridade entre grupos protegidos, transparência sobre uso de IA na vaga e canal de revisão acessível ao candidato. Sem isso, a empresa fica exposta juridicamente e eticamente.

ChatGPT pode redigir feedback de performance?

Pode redigir rascunho. Não pode substituir a decisão técnica. O Conselho Federal de Psicologia, em nota técnica de 2024, alertou que avaliação psicológica e decisões com consequência ocupacional exigem responsabilização humana. Feedback inteiramente gerado por IA, sem leitura substantiva por quem conhece a pessoa, perde credibilidade e expõe a organização. Uso defensável: IA como assistente de redação, revisão e decisão humana, registro auditável do uso, comunicação transparente ao colaborador sobre o emprego da ferramenta.

Algoritmo de hiring pode ser auditado?

Pode e deve. A EEOC (agência federal dos EUA) publicou em 2023 guidance específico sobre uso de IA em emprego, alertando para discriminação indireta. A Lei de IA da União Europeia (AI Act, 2024) classifica sistemas de hiring como de alto risco, exigindo avaliação de conformidade, transparência e supervisão humana. No Brasil, o PL 2.338/2023 propõe regime similar. A auditoria técnica defensável inclui análise de viés por grupo protegido, teste de explicabilidade e revisão por comitê interdisciplinar com psicólogo, jurídico e tecnologia.

Recrutador pode usar IA generativa para criar avaliação psicológica?

Não. Avaliação psicológica no Brasil é privativa de psicólogo, com instrumentos avaliados pelo SATEPSI (Conselho Federal de Psicologia). Usar IA generativa para construir teste, parecer ou laudo psicológico configura exercício irregular da profissão e violação de resolução do CFP. Recrutador não psicólogo pode usar IA para tarefas administrativas — descrição de vaga, agendamento, sumarização — mas não para construir instrumentos avaliativos ou tomar decisões com peso psicológico.

Síntese

IA em RH é objeto de governança, não pauta de fornecedor

Empresa que tratou IA em RH como compra de software entrou no risco. Quem decidiu construir governança técnica — política escrita, auditoria estatística, comitê interdisciplinar com Psicologia na sala — está preparada para a regulação que chega e para a pressão social que já chegou. O MBA em Psicologia Organizacional e do Trabalho do IPOG, em formato Ao Vivo síncrono, é a trilha aplicada para liderar essa frente.

Ver pós-graduação no IPOG