Por Giulliano Martini — Apuração in loco e cruzamento de fontes para a Espresso Italia. Um estudo acadêmico apresentado em Roma aponta que a inteligência artificial aplicada à seleção de pessoal pode reforçar desigualdades já existentes e, se não for corretamente governada, amplificar a discriminação de gênero nos processos de recrutamento.
O relatório, intitulado ‘Intelligenza artificiale e bias di genere nel reclutamento del personale’, foi elaborado pela Universidade da Calábria e pelo Politécnico de Bari, sob coordenação do professor Salvatore Ammirato, e promovido pela Fondazione Magna Grecia. Os resultados foram divulgados durante o congresso ‘IA na seleção do pessoal. A nova fronteira da liderança inclusiva‘, organizado por Federmanager em parceria com a mesma fundação e com o Grupo Ferrovie dello Stato Italiane. Participaram gestores de recursos humanos, empresários e acadêmicos que discutiram as implicações éticas e operacionais do uso de algoritmos em recrutamento.
Valter Quercioli, presidente da Federmanager, destacou que a IA representa ‘uma oportunidade concreta para melhorar a qualidade dos processos de seleção e tornar as organizações mais evoluídas’ — mas advertiu para os riscos quando a tecnologia não é acompanhada por governança adequada. A análise acadêmica reforça esse ponto: a inteligência artificial não é um decisor neutro, e seus resultados reproduzem as escolhas e os vieses incorporados nos dados e nas práticas organizacionais.
Segundo o coordenador científico Salvatore Ammirato, ‘a IA não decide por si só; são as pessoas que definem como a IA toma decisões’. O estudo documenta como conjuntos de dados históricos, processos de triagem e políticas internas podem conter preconceitos que, quando automatizados, ganham escala e opacidade. A consequência é dupla: consolidação de assimetrias já existentes ou — se houver liderança consciente — a possibilidade de remover barreiras históricas.
Pierpaolo Pontrandolfo, professor do Politécnico de Bari e presidente da Associação Italiana de Engenharia de Gestão, acrescentou que qualquer inovação tecnológica precisa priorizar o bem-estar das pessoas e da sociedade. Ele defendeu responsabilidade e consciência por parte de quem projeta e emprega soluções de IA, sobretudo no contexto do trabalho, que permanece ‘a fronteira decisiva da cidadania’.
O relatório integra o projeto nacional ‘Privacy Tour’, uma iniciativa que reúne instituições, empresas e centros de pesquisa para examinar as implicações de privacidade e governança de novas tecnologias. As conclusões são claras: sem medidas de transparência, auditoria de algoritmos, revisão de datasets e uma liderança inclusiva, a implementação de IA na seleção de pessoal pode transformar uma promessa de eficiência em fonte de discriminação ampliada — em particular no que tange ao gênero.
Do ponto de vista prático, os autores recomendam controles independentes dos modelos, monitoramento contínuo de métricas de equidade, formação de gestores de RH em práticas de governança algorítmica e participação ativa de stakeholders no desenho das soluções. Estes são os passos necessários para que a inteligência artificial deixe de ser apenas uma infraestrutura técnica e se torne ferramenta efetiva de inclusão e justiça laboral.
Esta reportagem segue o princípio do fato bruto: apresentação dos elementos verificados, declaração das fontes e indicação das respostas institucionais em curso. A realidade traduzida aponta para uma agenda regulatória e de governança que será decisiva nos próximos ciclos de contratação.






















