ROMA — A capacidade da inteligência artificial de mimetizar comportamento humano e responder a questionários online está pondo em risco a confiabilidade das pesquisas baseadas em sondagens. É a conclusão de um comentário assinado por três pesquisadores do IMT School for Advanced Studies Lucca e da Universidade de Cambridge, publicado na revista Nature.
O texto aponta que agentes automatizados, cada vez mais sofisticados, conseguem preencher surveys com pouca ou nenhuma supervisão humana, transformando o problema das fraudes em algo estrutural. “Os problemas mudaram de escala”, afirma Folco Panizza, pesquisador do IMT e coautor do comentário. “Não podemos mais dizer se quem responde é uma pessoa ou não, e o resultado é que todos os dados são potencialmente contaminados.”
Estudos citados no comentário mostram uma variação brusca: dependendo da população pesquisada, a parcela de respostas falsas ou fraudulentas pode oscilar entre 4% e 90%. Mesmo percentuais modestos, contudo, têm efeito desproporcional em estudos com efeitos estatísticos pequenos: uma contaminação de 3–7% já é suficiente para invalidar conclusões.
Plataformas amplamente usadas para coleta de dados, como Amazon Mechanical Turk, Prolific e Lucid, garantiram durante anos acesso rápido e barato a grandes volumes de respostas. Hoje, contudo, essas plataformas são especialmente vulneráveis à manipulação por sistemas automáticos capazes de gerar respostas fluentes, coerentes e contextualmente adequadas — muitas vezes superiores às humanas em termos de qualidade aparente.
Ferramentas tradicionais de detecção, como CAPTCHAs e questões de atenção inseridas em questionários, mostram-se cada vez menos eficazes frente a modelos avançados. Para os autores, isso exige uma mudança de estratégia em vários níveis.
Uma recomendação prática é ampliar a análise de paradata — dados comportamentais associados ao processo de resposta, como velocidade de digitação, uso de copiar/colar e padrões de navegação — para identificar respostas com probabilidade estatisticamente improvável para um ser humano. Outra pista é reforçar o uso de painéis probabilísticos e participantes com identidade verificada, diminuindo a dependência de amostras não probabilísticas de baixo custo.
Mas a proposta mais radical sugerida pelos pesquisadores é inverter a lógica da detecção de fraudes: em vez de explorar as fraquezas da inteligência artificial, projetar testes que se apoiem nas limitações típicas do raciocínio humano. “As máquinas são muito boas em imitar comportamento humano, mas menos hábeis em reproduzir os erros típicos das pessoas”, observa Panizza. Assim, tarefas que envolvam problemas de probabilidade, estimativas rápidas ou testes perceptivos sob pressão de tempo podem revelar respostas “perfeitamente” artificiais.
Essa mudança implica custos maiores para a coleta e verificação de dados e abre uma nova etapa no cruzamento de fontes e na apuração técnica: os pesquisadores defendem protocolos que combinem ferramentas comportamentais, amostras verificadas e testes desenhados especificamente para distinguir humanos de agentes. Em suma: sem uma reformulação metodológica e operacional, a integridade das pesquisas sociais e políticas em ambientes digitais corre risco sério.

















