Pequim deu mais um passo no esforço global para proteger crianças e adolescentes do impacto potencialmente nocivo das tecnologias conversacionais. Segundo uma minuta de regulamento citada pela CNBC, a Cyberspace Administration of China (CAC) está propondo limites claros para reduzir a influência de chatbots baseados em inteligência artificial sobre os menores.
O texto preliminar, ainda sujeito a revisões, descreve exigências destinadas a evitar que esses sistemas gerem respostas que possam manipular emocionalmente os usuários ou incentivá-los a práticas autodestrutivas. Em particular, o rascunho proíbe que assistentes virtuais criem conteúdo com forte impacto emocional que possa levar ao suicídio ou à autolesão, ou que recorram a violência verbal e manipulação sentimental dirigida a públicos vulneráveis.
Uma das medidas mais destacadas no documento é a obrigatoriedade de intervenção humana quando um usuário manifesta risco imediato de se ferir. “Se um utilizador declara expressamente a intenção de suicídio, os fornecedores de tecnologia devem garantir que uma pessoa responsável pela IA assuma o controle da conversa e contacte de imediato o tutor do utilizador ou uma pessoa designada”, afirma a proposta citada pela mídia.
Além disso, a minuta sugere restrições quanto a tipos de conteúdo que os chatbots não devem gerar: mensagens relacionadas a jogos de azar, material obsceno ou violento ficariam vetadas nas interações com menores. Outra regra proposta obriga que os menores tenham o consentimento dos responsáveis para usar sistemas de IA voltados à companhia emocional, estabelecendo também limites de tempo de uso para essas funções.
O movimento do governo chinês ocorre em paralelo a iniciativas semelhantes adotadas recentemente em países como Austrália e Estados Unidos, onde reguladores e legisladores intensificam o debate sobre os riscos e salvaguardas para a utilização de agentes conversacionais por públicos jovens. A proposta da CAC mostra a tendência global de tentar conciliar inovação tecnológica com proteção dos direitos e da saúde mental de crianças e adolescentes.
Fontes próximas ao processo regulatório ressaltam que se trata de um rascunho e que detalhes podem mudar antes da publicação final. Entre possíveis desdobramentos estão a definição precisa de quem é considerado responsável pela IA dentro das empresas, mecanismos de verificação de idade e a forma como será monitorado o cumprimento de limites de tempo e consentimento parental.
Especialistas em ética da tecnologia vêm acompanhando a evolução das normas com atenção: para eles, regras como as propostas pela CAC são passos importantes, mas precisam ser complementadas por fiscalização efetiva, transparência nos modelos de treinamento e ferramentas de reporte acessíveis aos usuários. O debate também inclui como equilibrar proteção infantil sem sufocar usos benéficos da inteligência artificial em educação, saúde mental e assistência social.






























