Roma, 22 de janeiro de 2026 — A Inteligência Artificial está redesenhando, de forma cada vez mais estrutural, os contornos dos processos de seleção de pessoal. A tecnologia oferece ganhos de eficiência e inovação, mas levanta questões cruciais sobre transparência, equidade e responsabilidade. Se mal governada, a IA pode reproduzir e até amplificar preconceitos existentes, em especial a discriminação de gênero.
Estudo aponta riscos e exige liderança responsável
É esta a conclusão central do estudo “Intelligenza artificiale e bias di genere nel reclutamento del personale“, conduzido pela Universidade da Calábria e pelo Politécnico de Bari, sob coordenação do professor Salvatore Ammirato, e promovido pela Fundação Magna Grecia. Os resultados foram apresentados em Roma durante o seminário “IA na seleção de pessoal. A nova desafio da liderança inclusiva”, organizado pela Federmanager em parceria com a Fundação e com o Grupo Ferrovie dello Stato Italiane.
O encontro reuniu gestores de recursos humanos, empresários e acadêmicos para discutir as implicações éticas e operacionais do uso de algoritmos nos processos de recrutamento. Integrando o projeto nacional “Privacy Tour”, a pesquisa oferece um retrato claro: quando treinada em dados enviesados ou aplicada sem controles, a Inteligência Artificial tende a reproduzir os bias já presentes em conjuntos de dados e nas práticas organizacionais.
IA não é neutra: decisão humana por trás do algoritmo
Como enfatiza o coordenador Salvatore Ammirato, “a IA não é um decisor neutro, mas um instrumento que reflete as escolhas de quem a projeta e a utiliza. Não é a IA que decide no lugar das pessoas; são as pessoas que decidem como a IA toma decisões”.
Da fala emergiu com clareza a necessidade de uma liderança consciente e inclusiva, capaz de governar os algoritmos para que estes se transformem em instrumentos de equidade, e não em vetores de novas desigualdades. O relatório recomenda políticas organizacionais, auditorias de sistemas, testes contínuos e formação de profissionais de RH para reconhecer e corrigir vieses.
Responsabilidade social e governança tecnológica
O professor Pierpaolo Pontrandolfo, do Politécnico de Bari e presidente da Associação Italiana de Engenharia de Gestão, ressaltou que toda inovação tecnológica deve ter como fim o aumento do bem‑estar das pessoas e da sociedade. “Isso exige grande responsabilidade e consciência por parte de quem a utiliza”, afirmou, destacando a urgência de padrões e mecanismos de governança.
O estudo integra um debate mais amplo: a IA já atua como uma espécie de “infraestrutura civil”, com impacto direto sobre o capital de confiança do pacto social. Em contextos onde o trabalho continua sendo a fronteira decisiva da cidadania, a introdução de algoritmos nos processos de seleção pode tanto consolidar as assimetrias existentes quanto ajudar a derrubar barreiras históricas — dependendo, precisamente, de como for regulada e auditada.
Medidas práticas e próximos passos
Entre as medidas apontadas pelo estudo e discutidas pelos participantes estão: transparência sobre os critérios usados pelos sistemas, auditorias independentes de algoritmos, inclusão de conjuntos de dados diversos e representativos, monitoramento contínuo de desempenho e efeitos diferenciais por gênero, e formação especializada para profissionais de RH. Também foi enfatizada a necessidade de políticas públicas que definam responsabilidades legais e padrões mínimos de conformidade.
Em suma, a mensagem é direta e técnica: a Inteligência Artificial aplicada ao recrutamento não pode ser tratada como caixa preta. É preciso convergir esforços institucionais, empresariais e acadêmicos para transformar a inovação em instrumento de justiça social, mantendo a apuração in loco e o cruzamento de fontes como ferramentas permanentes de verificação.
Giulliano Martini — correspondente, Espresso Italia. Reportagem com base no estudo acadêmico e no seminário promovido hoje em Roma por Federmanager.






















