O Discord anunciou um reforço global em suas ferramentas de segurança voltadas a adolescentes, com implementação prevista para o início de março. As mudanças incluem verificação obrigatória de idade para acesso a determinadas áreas da plataforma e ajustes automáticos nas configurações de privacidade, em uma iniciativa que acompanha a pressão internacional por maior proteção a menores na internet.
Usuários a partir de 13 anos — novos ou já cadastrados — deverão confirmar a idade para acessar conteúdos restritos ou alterar configurações sensíveis. A verificação poderá ser feita por reconhecimento facial via foto ou envio de documento oficial. Segundo a empresa, os dados utilizados no processo serão descartados após a validação. O sistema também identificará usuários adultos, evitando verificações repetidas.
Após a confirmação etária, o Discord ajustará automaticamente as permissões e o tipo de conteúdo exibido, adequando a experiência à faixa etária do usuário. A plataforma também anunciou a criação de um “Conselho de Adolescentes”, formado por 10 a 12 jovens, que irá colaborar com sugestões sobre políticas e novas funcionalidades.
A iniciativa segue uma tendência observada em outras empresas de tecnologia. O YouTube passou a usar inteligência artificial para identificar menores em alguns países, enquanto o Roblox implementou exigência de comprovação de idade para acesso a chats. As mudanças ocorrem em meio ao avanço de regulações em diversos países. A Austrália, por exemplo, proibiu redes sociais para menores de 16 anos, e nações europeias adotaram restrições adicionais para proteção de adolescentes.
No Brasil, o Estatuto da Criança e do Adolescente já impõe responsabilidade às plataformas para garantir a segurança digital de menores. O movimento do Discord reforça a adaptação das empresas a um cenário de maior cobrança por ambientes virtuais mais seguros.






