Calenda cancela ChatGPT por 'escolha política' e pede soberania digital europeia

Calenda cancela assinatura do ChatGPT por escolha política e pede soberania digital europeia contra vigilância e uso irregular de dados.

Calenda cancela ChatGPT por 'escolha política' e pede soberania digital europeia

RESUMO ✦

Sem tempo? A Lili IA resume para você

Gerando resumo com IA...

Calenda cancela ChatGPT por 'escolha política' e pede soberania digital europeia

O secretário de Azione, Carlo Calenda, anunciou nesta segunda-feira, 9 de março, que desinstalou e cancelou sua assinatura do ChatGPT. Em vídeo publicado nas suas redes sociais, Calenda afirmou que a decisão foi uma escolha política: segundo ele, a OpenAI escolheu ficar ao lado do que classificou como abuso de poder, de práticas de vigilância indiscriminada e do uso de dados sem controles adequados — e, em termos simbólicos e práticos, ao lado de Trump.

"Eu cancelei o ChatGPT. E fiz isso por escolha política", disse Calenda no vídeo. O secretário destacou também a saída ou o isolamento de vozes que tentaram defender padrões éticos dentro da empresa, citando especificamente Dario Amodei como exemplo de quem acabou sendo deixado de lado.

Na sua fala, Calenda levou a discussão além do ato individual de desinstalar um aplicativo: tratou o episódio como parte da disputa sobre quem controla as bases tecnológicas que moldam a vida pública. "Como em muitos outros setores, também nas infraestruturas digitais nós, europeus, continuamos a contratar a construção e a gestão", afirmou. Para ele, essa dependência não é apenas uma perda competitiva, mas um risco direto à segurança e à autonomia: "A Europa tem tudo para construir uma própria inteligência artificial e ser soberana. Falta apenas a vontade política. É hora de encontrá-la".

Para dar força simbólica à posição, Calenda filmou ao vivo o momento em que cancelou a assinatura do ChatGPT. Ele prometeu travar uma grande batalha política: o ponto central da crítica é que a plataforma teria autorizado o governo a usar sua capacidade computacional para finalidades sem o devido enquadramento ético e legal. Segundo o secretário, já houve testes de IA para análises em cidades que identificavam inclinações ou riscos de crime de certas pessoas — um uso que, na avaliação dele, abre caminho para perfilamentos com base em rendimentos ou padrões de consumo.

"É extremamente perigoso", advertiu Calenda, porque permite que, com base em elementos econômicos ou de gasto, se acumule um julgamento que transforma um cidadão em alvo de maior vigilância sem responsabilidade objetiva. A fala evoca diretamente preocupações sobre algoritmos que criam atestados extrajudiciais de risco, esvaziando alicerces de garantias civis.

Na voz de quem busca construir pontes entre decisões de Roma e os direitos cotidianos das pessoas, esta posição de Calenda será mais que um gesto simbólico: é o lançamento de uma campanha política sobre a arquitetura da governança da tecnologia. A proposta central é clara: derrubar barreiras burocráticas e políticas para erguer uma infraestrutura europeia de soberania digital, que coloque a proteção de dados e os direitos civis como alicerces, não como variáveis de segundo plano.

O episódio reacende o debate sobre regulação da inteligência artificial, o papel das grandes empresas tecnológicas e a necessidade de opções públicas e europeias que preservem segurança, privacidade e responsabilidade.