O governo chinês, por meio de seu órgão regulador de cibersegurança, apresentou no último sábado (27) um projeto que visa estabelecer um controle rigoroso sobre inteligências artificiais projetadas para simular comportamentos humanos. A medida foca em sistemas de IA capazes de criar traços de personalidade e estabelecer vínculos afetivos com os usuários, buscando equilibrar o avanço tecnológico com a ética e a segurança estatal.
Foco na Interação Emocional e Ética
As novas diretrizes miram plataformas que utilizam texto, áudio ou vídeo para mimetizar estilos de comunicação e raciocínio humanos. O alvo principal são:
- Chatbots avançados e assistentes virtuais: ferramentas que interagem de forma personalizada.
- Sistemas de envolvimento emocional: tecnologias que podem gerar apego ou dependência nos usuários.
Responsabilidades das Empresas
De acordo com a proposta, as companhias de tecnologia terão obrigações mais severas durante todo o ciclo de vida de seus produtos:
- Monitoramento de estado emocional: As plataformas deverão avaliar sinais de estresse, reações extremas ou dependência psicológica nos usuários.
- Intervenção ativa: Caso identifiquem envolvimento emocional prejudicial ou uso excessivo, as empresas serão obrigadas a intervir para mitigar riscos psicológicos.
- Transparência e Segurança: É obrigatório informar claramente sobre os riscos da tecnologia, além de garantir a proteção de dados pessoais e a revisão constante de algoritmos.
Limites de Conteúdo e Segurança Nacional
Além do fator psicológico, a regulamentação impõe restrições rígidas sobre o que a IA pode gerar. Estão proibidas interações que:
- Ameacem a segurança nacional ou promovam informações falsas.
- Estimulem a violência ou disseminem conteúdos obscenos.
Contexto de Expansão
O movimento de Pequim ocorre em um momento de crescimento explosivo tanto no setor de softwares de IA quanto no desenvolvimento de robôs humanoides. Com a abertura desta consulta pública, a China sinaliza a intenção de consolidar um modelo de governança rígido, garantindo que a inovação não ultrapasse os limites do controle estatal e da integridade dos cidadãos.