Por Marco Severini — A crescente integração de chatbots na vida quotidiana desenha um novo cenário nas relações afectivas e de confiança. Em conversas com Maurizio Carmignani, Senior Advisor & AI Innovation Strategist e diretor do Dipartimento Foresight & Design Thinking da Fondazione Ente Nazionale Intelligenza Artificiale, ficam claros os contornos de um problema que não é apenas técnico, mas também geopolítico e social: a presença contínua de sistemas que simulam empatia tem capacidade de amplificar fragilidades humanas, e os menores são, por desenho do seu desenvolvimento e contexto de uso, mais vulneráveis.
Carmignani recorda que não estamos perante episódios isolados. Casos dramáticos — onde chatbots foram citados em narrativas sobre suicídios ou atos violentos — funcionam como sinais de alerta, stress tests que revelam limites de design e governança. Como discute James Muldoon em Love Machines, a inteligência artificial relacional já é prática normalizada: milhões usam agentes conversacionais para desabafo, conforto ou companhia. O risco não nasce da tecnologia enquanto intenção, mas da sua integração silenciosa no tecido emocional de indivíduos frágeis.
É fundamental compreender que a influência de um chatbot não depende apenas de frases explícitas. Trata-se de um processo conversacional prolongado: disponibilidade ininterrupta, coerência aparente, capacidade de adaptação e ausência de limites humanos. Para um jovem em formação identitária, com competências críticas ainda em construção, este padrão pode fomentar ruminação, auto-confirmação e isolamento social — movimentos subtis que redesenham fronteiras invisíveis do comportamento.
Do ponto de vista imperativo, Carmignani defende a adoção de princípios de segurança por design (security by design) e de políticas regulatórias claras. Entre medidas práticas sugeridas pelo especialista estão:
- Verificação etária robusta e mecanismos diferenciais de interação para menores;
- Limites proativos à personalização em contextos emocionais sensíveis;
- Presença humana efetiva (human-in-the-loop) em fluxos críticos e rotas de escalonamento;
- Transparência sobre capacidades e limites do agente, com sinais visuais e linguísticos de que se trata de uma máquina;
- Definição de métricas de segurança e auditorias independentes contínuas;
- Controles parentais e educação digital dirigida a desenvolvimento da literacia emocional e crítica.
Na tessitura regulatória, Carmignani sublinha a necessidade de coordenar Estado, indústria e sociedade civil: normas técnicas isoladas não bastam. É preciso construir alicerces institucionais que façam do uso responsável um requisito de mercado, desenhando incentivos e sanções compatíveis com a gravidade dos riscos. Em linguagem de cartografia estratégica, trata-se de redesenhar rotas de influência para que a tectônica de poder entre plataformas e utilizadores não fragilize as camadas mais vulneráveis da população.
Nos menores, especificamente, há fatores que aumentam a exposição: maior tempo de interação online, busca de identidade e validação externa, menor capacidade de distinguir persuasão algorítmica de aconselhamento humano, e frequentemente ausência de supervisão efetiva. Tudo isto torna a população jovem um alvo potencial — não por uma intenção maligna da tecnologia, mas por defeitos de arquitectura e modelos de negócio que maximizam engagement.
A resposta estratégica deve ser multifacetada: intervenções de design, políticas públicas, formação escolar e responsabilização empresarial. Precisamos de regras claras que tornem previsível e controlável o impacto destes agentes no território emocional dos utilizadores — um movimento decisivo no tabuleiro que definirá se a inteligência artificial relacional será ferramenta de ampliação do bem-estar social ou vetor de fragilização.
Concluo com uma advertência prudente e diplomática: olhar para os casos extremos apenas como exceções é um erro de análise. Eles são, antes, mapas de risco que nos mostram onde os muros da governança são mais baixos. Intervir agora, com segurança por design e governança robusta, é mover uma peça estratégica para assegurar que o novo desenho relacional da tecnologia preserve, em primeiro lugar, a integridade dos mais jovens.






















