Uma nova lei obriga o TikTok, Instagram, YouTube e todas as redes sociais com usuários menores de 18 anos no Brasil a implementar proteções contra o uso compulsivo por crianças e adolescentes. É a Lei nº 15.211/2025, chamada de ECA Digital — e ela já está em vigor. Pais, escolas e plataformas precisam entender o que mudou.
O Brasil tem mais de 25 milhões de usuários menores de 18 anos nas redes sociais. Estudos do próprio Ministério da Saúde apontam relação entre o uso excessivo de redes e o aumento de ansiedade, depressão e distúrbios de sono em adolescentes. O ECA Digital é a resposta legislativa a esse cenário.
O que a lei diz — em linguagem simples
A Lei 15.211/2025 atualiza o Estatuto da Criança e do Adolescente (ECA) para incluir o ambiente digital. Ela parte de um princípio claro: empresas de tecnologia compartilham responsabilidade pelos impactos do uso de suas plataformas em menores — e não podem se esconder atrás do argumento de "os pais deveriam controlar".
| Obrigação | O que as plataformas devem fazer |
|---|---|
| Controle parental | Disponibilizar ferramenta gratuita e acessível para pais e responsáveis |
| Restrição de horários | Bloquear ou limitar notificações em horários de estudo (ex.: 8h–17h) e descanso (após 22h) |
| Detecção de uso compulsivo | Criar sistemas que identifiquem padrões de uso excessivo e alertem o usuário ou responsável |
| Relatório de tempo de tela | Enviar relatório semanal para o responsável vinculado à conta do menor |
| Algoritmo responsável | Não direcionar conteúdo que estimule comparação física, automutilação ou comportamentos de risco |
Fonte: Lei nº 15.211/2025 — Planalto.gov.br.
O que muda para pais e responsáveis
Antes do ECA Digital, o controle parental nas redes sociais era voluntário — cada plataforma oferecia (ou não) ferramentas próprias, muitas vezes escondidas em menus difíceis de encontrar. Com a lei, isso muda:
Publicidade
- Controle parental obrigatório: As plataformas devem oferecer uma interface clara, em português, para vinculação da conta do filho à conta do responsável
- Acesso ao histórico de uso: Pais podem ver quanto tempo o filho passou em cada plataforma
- Possibilidade de limite de tempo: Definir um teto diário de uso diretamente pelo aplicativo
- Alerta de comportamento de risco: A plataforma deve notificar o responsável se detectar padrões associados a automutilação ou conteúdo de risco
O que muda para adolescentes
Para os próprios jovens, as mudanças mais visíveis serão:
- Menos notificações em horários específicos (escola, sono) — por padrão, não só quando o usuário ativa
- Alertas de uso prolongado — a plataforma deve interromper a sessão com um aviso após determinado tempo contínuo
- Menos conteúdo algorítmico de risco — o feed não pode priorizar sistematicamente conteúdos que comprovadamente prejudicam a saúde mental de adolescentes
O que acontece se a plataforma não cumprir
O ECA Digital tem dentes. As penalidades incluem:
- Multas administrativas aplicadas pelo Ministério da Justiça e pela ANPD
- Suspensão do serviço no Brasil em casos de descumprimento grave ou reincidência
- Responsabilidade civil por danos comprovados ao desenvolvimento psicossocial de menores vinculados à plataforma
Como denunciar uma plataforma que não cumpre
- Acesse o site do Ministério da Justiça e localize o canal de denúncias digitais
- Registre a denúncia também na ANPD se envolver dados pessoais de menores
- O Ministério Público pode ser acionado em casos que envolvam dano grave a crianças
Por que esse debate importa agora
O Brasil não está sozinho nessa discussão. Em 2023, a União Europeia aprovou o Digital Services Act com obrigações semelhantes. Em 2024, a Austrália proibiu completamente o acesso de menores de 16 anos a redes sociais. O ECA Digital posiciona o Brasil no grupo de países que tratam a saúde digital de crianças como política pública — e não como responsabilidade exclusiva da família.





