Casos recentes têm acendido o alerta sobre a segurança de crianças e adolescentes no ambiente digital. Nos últimos meses, a plataforma de jogos Roblox alterou suas regras e passou a restringir o uso do chat entre jogadores. Agora, os usuários precisam verificar a idade e só podem interagir com pessoas de faixas etárias semelhantes, como forma de evitar contatos indevidos.
No entanto, esse movimento não acontece de forma isolada. Ele reflete uma preocupação crescente com a exposição e a vulnerabilidade de menores no ambiente digital, tema que também impulsionou debates públicos e propostas como a chamada Lei Felca.
Essa iniciativa ganhou visibilidade ao levantar discussões sobre a superexposição de crianças em conteúdos digitais, especialmente quando há monetização envolvida, e propõe a responsabilização de pais, responsáveis e plataformas.
É por isso que aparece o chamado ECA Digital, uma nova legislação que regulamenta o uso da internet por crianças e adolescentes no Brasil. Sancionada em setembro do ano passado, a lei passou a valer após um período de adaptação de seis meses e estabelece um marco jurídico para a proteção de menores no ambiente digital.
O que muda?
Na prática, o ECA Digital impõe uma série de mudanças. Entre elas, está a proibição da autodeclaração de idade em serviços restritos a maiores de 18 anos, além da exigência de verificação de idade em plataformas que oferecem conteúdos sensíveis, como apostas ou venda de produtos como bebidas alcoólicas e cigarros. Do mesmo modo, as redes sociais deverão oferecer versões mais seguras, sem publicidade direcionada, e vincular contas de menores de 16 anos às de seus responsáveis.
A legislação também mira práticas consideradas prejudiciais ao desenvolvimento de crianças e adolescentes. Recursos como rolagem infinita, reprodução automática de vídeos e notificações que estimulam o uso compulsivo passam a ser proibidos. Jogos eletrônicos com caixas de recompensas deverão bloquear o acesso de menores ou oferecer versões sem esse tipo de mecanismo.
Além disso, plataformas com grande número de usuários jovens terão que apresentar relatórios sobre moderação de conteúdo e medidas de proteção adotadas. O descumprimento das regras pode gerar multas que chegam a R$ 50 milhões, além da possibilidade de suspensão das atividades.
A nova lei também fortalece o papel do Estado na fiscalização. A Autoridade Nacional de Proteção de Dados passa a atuar como agência reguladora, com mais autonomia para acompanhar e exigir a adequação das empresas às normas. Ainda assim, a participação ativa de pais e responsáveis continua sendo essencial para garantir a proteção de crianças e adolescentes no ambiente digital.









