ECA Digital e transparência na proteção de crianças e adolescentes
Ambientes digitais operam hoje com níveis de opacidade incompatíveis com o impacto que exercem sobre comportamentos, escolhas e trajetórias individuais
O ECA Digital passa por um momento decisivo, marcado pelo acompanhamento da Agência Nacional de Proteção de Dados (ANPD) sobre os relatórios de adequação exigidos das organizações. Esse contexto reforça a necessidade de refletir com mais profundidade sobre os impactos da legislação, indo além das leituras imediatas e formais, para compreender o que ela revela sobre a forma como o ambiente digital vem sendo estruturado.
A discussão sobre proteção de crianças e adolescentes no ambiente digital não é apenas um debate regulatório ou tecnológico: é, sobretudo, uma questão de transparência e integridade institucional. Ambientes digitais operam hoje com níveis de opacidade incompatíveis com o impacto que exercem sobre comportamentos, escolhas e trajetórias individuais.
Quando regras decisivas são definidas por arquiteturas invisíveis — algoritmos, incentivos econômicos e mecanismos de captura de atenção — cria-se um terreno fértil para abusos silenciosos, difíceis de auditar e ainda mais difíceis de corrigir. É nesse vácuo de visibilidade que práticas potencialmente lesivas se normalizam, longe do escrutínio público e da responsabilização efetiva.
O caminho não é “falar mais da lei”, mas compreender o que ela revela sobre a forma como redes sociais e games passaram a organizar a infância. A Lei nº 15.211/2025 (ECA Digital) não nasce apenas para “conter abusos”; ela surge porque o ambiente digital se tornou infraestrutura de socialização, consumo e identidade — e isso altera o tipo de proteção que a sociedade deve oferecer.
O fato de estarmos próximos do prazo de monitoramento estendido pela ANPD ajuda a trazer o tema do plano abstrato para o plano das escolhas concretas de produto e governança. Nesse sentido, algumas reflexões menos evidentes — e mais úteis — se impõem.
O debate real não é sobre “idade”, mas sobre “arquitetura de risco”. Em redes sociais e games, o dano raramente vem de um “conteúdo proibido” isolado; ele costuma surgir da combinação entre recomendação algorítmica, pressão do grupo, design persuasivo e captura de atenção (o famoso “só mais uma partida”, “só mais um vídeo”).
A verificação etária vira apenas um pedaço do quebra-cabeça — importante, mas insuficiente — e o próprio Comitê Gestor da Internet no Brasil (CGI.br) aponta que aferição de idade é central, porém não é o único mecanismo de proteção.
Nos games, a criança não é apenas usuária; muitas vezes é também uma espécie de “trabalhadora involuntária de dados”. Cada clique, partida, tempo de permanência, compra in-app e interação no chat alimentam modelos de personalização e monetização. Isso é parte do produto, não um efeito colateral. Quando o ECA Digital fala em proteção contra exploração comercial e impõe obrigações a serviços “direcionados ou de acesso provável” por menores, ele força a pergunta incômoda: o que, exatamente, está sendo extraído como valor — diversão ou previsibilidade comportamental?
Nesse contexto, privacidade não pode ser entendida apenas como sigilo de dados. Ela se conecta diretamente à liberdade de desenvolvimento. A lei menciona respeito à autonomia e ao desenvolvimento progressivo, o que aponta para uma leitura mais madura: a infância precisa de margem para experimentar sem ser permanentemente perfilada. Em redes sociais, isso tem impacto direto sobre recomendação, filtros, ranking de popularidade e até sobre como a plataforma “decide” o que o jovem verá repetidas vezes.
Por isso, a régua correta não é “o que a empresa consegue fazer”, mas “o que é proporcional ao risco”. O CGI.br defende proporcionalidade e necessidade: ambientes de maior risco pedem medidas mais fortes; ambientes de baixo risco não deveriam sofrer exigências excessivas. Essa chave é valiosa para tirar a conversa do moralismo (“rede social é ruim”, “game faz mal”) e colocá-la onde importa: quais funcionalidades aumentam risco e quais reduzem.
Algumas provocações práticas — do tipo que ajuda liderança de produto, jurídico e trust & safety — ajudam a visualizar este desafio. Em jogos com chat aberto ou comunicação por voz entre desconhecidos, o risco vai muito além de linguagem inadequada. Envolve grooming, assédio, manipulação e coação social em tempo real. A pergunta essencial é se o produto foi desenhado para maximizar interação a qualquer custo ou para maximizar interação segura.
Nos feeds das redes sociais, a lógica é semelhante: quando a plataforma aprende rapidamente o que prende o interesse, ela assimila também o que prende o interesse de um menor. Se o modelo é ótimo em amplificar emoção (raiva, ansiedade, comparação), a proteção não pode se limitar a remover conteúdo ilegal; precisa tratar recomendação e padrão de exposição repetida como parte do risco.
O mesmo vale para microtransações e economias internas em games, frequentemente ajustadas à impulsividade típica da adolescência: mesmo sem ilegalidade formal, há clara assimetria de maturidade — exatamente o tipo de desequilíbrio que estatutos protetivos buscam mitigar.
Do ponto de vista prático, a lei coloca pressão para que empresas façam três movimentos objetivos: mapear riscos reais por funcionalidade, escolher medidas proporcionais e auditáveis, e provar isso com transparência e governança — motivo pelo qual a ANPD está monitorando e pedindo informações sobre medidas técnicas e organizacionais adotadas. E, como o Comitê Gestor da Internet no Brasil ressalta, qualquer solução — inclusive verificação de idade — precisa ser compatível com privacidade e minimização de dados, para que não se resolva um problema criando outro.
O ECA Digital, em análise final, é um convite ao amadurecimento do debate: ele propõe abandonar a lógica superficial do “proibir ou liberar” e avançar para uma discussão de engenharia social do produto: quais escolhas de design ampliam vulnerabilidades e quais promovem desenvolvimento saudável. Redes sociais e games podem continuar sendo espaços de criatividade, amizade e diversão, desde que a proteção deixe de ser um apêndice burocrático e passe a funcionar como critério estruturante de projeto — especialmente quando o público é jovem.
Talvez a pergunta mais simples — e mais reveladora — seja esta: se amanhã essa plataforma fosse usada majoritariamente por crianças, o que mudaria no design? E por quê?
Cláudio Roberto Santos, Advogado. Certificações CIPM e CDPO/BR (IAPP), Doutorando em Teoria do Direito e Direito Constitucional (PUC Rio), Mestre em Direito Privado (PUC Minas) Cláudio Roberto Santos, Advogado. Certificações CIPM e CDPO/BR (IAPP), Doutorando em Teoria do Direito e Direito Constitucional (PUC Rio), Mestre em Direito Privado (PUC Minas) e Professor universitário, sócio do DMS Advogados e Professor universitário, sócio do DMS Advogados
Este artigo é uma colaboração do Canal INAC com VEJA





