Foco na proteção de crianças e de adolescentes em ambientes digitais. Esse aspecto, que é a razão de ser da Lei n° 15.211/25, conhecida como Estatuto Digital da Criança e Adolescente (ECA Digital) e sancionada em março de 2026, foi um dos fios condutores da entrevista que a Fundação Tide Setubal realizou com Maria Góes de Mello, gerente do Eixo Digital e do programa Criança e Consumo do Instituto Alana, sobre a legislação.
Maria Góes de Mello, que é também mestre em Comunicação pela Universidade de Brasília (UnB), pode falar com propriedade sobre a lei e o processo para que fosse aprovada e entrasse em vigor. Isso porque ela participou de modo ativo da articulação para essa legislação avançar perante à opinião pública e na esfera política. Essa lei tem como foco, então, estabelecer regras para o acesso de crianças e adolescentes a plataformas e serviços digitais.
Nesse sentido, aspectos referentes a pontos como a arquitetura das redes sociais e plataformas de streaming — inclusive de jogos —, conteúdos que elas consomem e recursos disponíveis nesses mesmos espaços deverão estar em conformidade com o que se estipula para o bem-estar. Isso contempla também o desenvolvimento em termos positivos nas esferas cognitiva, psicológica e social.
Em paralelo, a discussão sobre o ECA Digital conecta-se com a vitória de Kaley, jovem estadunidense que processou Google e Meta. Ela alega ter se viciado no uso de redes sociais durante a infância por causa de, entre outros fatores, a arquitetura das redes desenvolvidas por ambas as empresas foi um fator preponderante. A decisão representa um precedente sobre a responsabilização de ambas as organizações sobre os efeitos sociocomportamentais, pessoais e políticos que as suas respectivas plataformas causaram – inclusive de modo conhecido. Confira a entrevista com Maria Góes de Mello.
Maria Góes de Mello: Sem dúvida. Há, nos casos recentemente julgados nos EUA e no ECA digital, um elemento de encontro e convergência quanto a uma estrutura comum à maior parte dos produtos e serviços digitais. Falo, em especial, das redes sociais. É justamente o desenho desses produtos e serviços, por muitas vezes feitos, pensados e arquitetados para viciar e reter a atenção de usuários. E isso inclui crianças e adolescentes. Essa é a grande inovação que essa lei traz ao colocar atribuições às plataformas e às empresas de tecnologia não apenas sobre conteúdos em circulação nesses espaços.
A grande inovação colocada nessa legislação, mas também com relação aos casos nos EUA, que condenaram Meta e Google quanto a esse tipo de escolha de design, tem a ver com a lógica algorítmica e com a base do modelo de negócios dessas empresas. Elas buscam reter a atenção do usuário a qualquer custo, ainda que seja da saúde mental e física de usuários, incluindo os mais vulneráveis: crianças e adolescentes. A resposta do Judiciário dos EUA é sobre à obrigação das empresas a não mais lançar mão deste tipo de desenho. Isso porque pode ser muito nefasto e ruim para o desenvolvimento de crianças e adolescentes. Esse mecanismo é, na verdade, muito ruim para todos nós. Todas e todos somos, de certa maneira, vítimas desse tipo de escolha de desenho.
Maria Góes de Mello: O Brasil tem uma das legislações mais protetivas em termos de garantia de direitos de crianças e adolescentes a partir da Constituição Federal de 1988, que fala da necessidade de se proteger e garantir direitos de crianças e adolescentes de maneira prioritária, integral e compartilhada por famílias, Estado e sociedade. Isso se desdobrou em legislações como o Estatuto da Criança e do Adolescente (ECA), entre outras. Isso nos informa, de algum modo, sobre esse passo inovador, soberano e relevante na decisão do legislador no Brasil em trasladar, trazer e atualizar essa proteção para o ambiente online.
Isso é muito importante, pois precisamos entender que as crianças no Brasil têm condições muito distintas das do Norte Global. Existe, de maneira comprovada, diferença no tratamento das empresas em relação aos usuários em geral. E isso é também sobre crianças e adolescentes do Norte e do Sul Global — e é necessário colocar-se um freio nisso. Então, uma vez que elas atuam globalmente, elas também precisam ser responsabilizadas de maneira global. Esse passo foi dado no Brasil e outros muitos países vêm fazendo isso também.
Maria Góes de Mello: O ECA Digital é muito amplo, protetivo e completo. Isso porque ele pensa desde a configuração de desenho dos serviços que possam ser acessados por crianças e adolescentes, como os mecanismos de retenção da atenção, podendo levar ao vício. Isso vale também para esse tipo de manipulação algorítmica, que pode fazê-las receberem conteúdos inadequados, pois esses materiais monetizam, engajam mais e trazem mais lucros para as plataformas. Isso deverá parar de ser feito com usuários crianças e adolescentes.
Por outro lado, existe também uma vedação relacionada a conteúdos. Há três elementos por meio dos quais a lei se relaciona com esse tipo de fenômeno mais amplo. Isso tem a ver com a modulação de comportamento dos usuários. Um deles faz as empresas não poderem mais, no design, ter elementos persuasivos e que dificultem, por exemplo, uma família de instalar uma ferramenta de acompanhamento de supervisão parental. Ou, então, ligá-la dentro do seu produto e do seu serviço, assim como desinstalar ou excluir uma conta. Pode-se entender isso tudo como uma escolha de design nocivo para crianças e adolescentes, assim como para todos nós.
O segundo segundo eixo relaciona-se ao conteúdo. Nesse sentido, conteúdos com potencial de ferir os direitos de crianças e adolescentes, ou que assim o façam, precisarão de ação prioritária — o mais rápido possível — para que não cheguem a elas. E, caso cheguem, que sejam derrubados. Existem gradações sobre conteúdos, logo, não é possível considerar todos como violações de direitos. É necessário ter cuidado também em relação ao debate da liberdade de expressão. Mas conteúdos flagrantemente violadores precisarão ser derrubados para que sequer cheguem até crianças e adolescentes.
O terceiro elemento, o qual considero anterior à concretização desse tipo de encontro de conteúdo com o usuário, mas também se relaciona com esse debate, é a vedação. Agora, plataformas e empresas não mais poderão usar dados pessoais de crianças e adolescentes para lhes direcionar publicidade. Esse tipo de prática também parte da dinâmica de funcionamento das redes sociais, mas se vê também em outros serviços online.
Maria Góes de Mello fala sobre cuidados e precauções com dados dentro do ECA Digital e o papel das big techs nesse contexto
Maria Góes de Mello: Claro. O dever de cuidado das plataformas está cada vez mais evidente e os danos relacionados à não assunção dele estão cada vez mais nítidos em todos os setores da sociedade. Então, a ruptura do tecido democrático é algo iminente e se coloca na discussão de país e na discussão civilizatória. Portanto, é mais do que urgente que empresas também também se arvorem e possam se envolver neste tipo de dever de cuidado. Elas não são meros túneis ou passagens por onde conteúdos flagrantemente ilícitos, que atentem contra direitos humanos variados. Logo, elas têm responsabilidade quanto a esses conteúdos uma vez que elas lucram com eles e são, por muitas vezes, impulsionados. Elas sabem que isso está acontecendo — isso traz lucro para elas de alguma maneira.
Então, a decisão do Marco Civil da Internet combina-se, de alguma maneira, com o ECA Digital. Isso ocorre conforme há entendimento convergente a respeito do dever de cuidado, que também é devido por parte dessas empresas. É muito importante dizer que se tomou um cuidado muito grande e extremo nessa lei em relação ao devido processo. Trata-se da possibilidade de uma pessoa, que se sinta lesada por conta de um conteúdo derrubado, poder recorrer e saber o motivo da derrubada. Há também uma trilha na lei que exige transparência por parte dessas empresas. Isso é uma segurança para as empresas: se pensarmos a respeito, então poderão explicar por que se derrubou determinado conteúdo — o usuário pode saber disso.
A previsão de derrubada de conteúdo se circunscreve, então, a conteúdos ilegais. Trata-se, então, de conteúdo de material de exploração sexual, pornografia, sequestro, de aliciamento, lesão e tráfico de crianças, por exemplo. Então, é muito importante repisarmos também, para além da ideia de que determinados conteúdos podem gerar apropriações maiores, conforme é possível embalá-los e interpretá-los. Essa legislação leva à interpretação do dever de cuidado. Assim, há garantia do devido processo e da transparência: é um cuidado que se tomou muito grande na hora de estruturá-la.
Maria Góes de Mello: As OSCs tiveram um papel de grande proeminência e protagonismo no processo de discussão e aprovação do ECA Digital. Nesse sentido, elas precisarão continuar a ter e seguir com esse esforço e atribuição de várias maneiras. Tem-se olhado no Instituto Alana, por exemplo, para a necessidade de investigar como se dão os processos de implementação de leis similares em outros países. Isso abrange os problemas enfrentados de ordem técnica, o que existe no mercado em termos de solução tecnológica para determinada demanda. É um olhar muito grande para a possibilidade de inovação dentro desse debate também.
Considero isso relevante para o debate da filantropia: conseguimos fazer algo transformador e novo no que diz respeito a trazermos atribuições para empresas e colocarmos, de alguma maneira, barreiras para elas — que lucram a qualquer custo com as vidas de crianças e adolescentes. Mas é interessante pensarmos no que se coloca no lugar. Isso instiga a pensar: o que se abre a partir de uma lei que faz esse tipo de barreira e traz esse tipo de obrigação para empresas que, majoritariamente, não são brasileiras? E o que está colocado para nós no mercado brasileiro, por exemplo, em termos de desenvolvimento e de inovação?
Maria Góes de Mello explica por que o ECA Digital não fala especificamente sobre proibição a chats em plataformas online
Não basta apenas comemorarmos como uma vitória legislativa e algo que está dado. Há, ainda, muita coisa ainda para acontecer, como fortalecer o sistema de Justiça para que se possa conhecer a lei e aplicar sanções também colocadas para esses atores. Isso contempla também como a Agência Nacional de Proteção de Dados (ANPD), o principal ente de fiscalização da lei, se fortalecerá sob os pontos de vista de recursos humanos, físicos e financeiros. Isso tudo está colocado para nós enquanto sociedade.
Não é porque agora a lei existe que não temos também o condão de contribuir também com a sua implementação. Evoco mais uma vez a distribuição compartilhada de papéis colocados para nós pela Constituição, no artigo 227, sobre a proteção prioritária e absoluta de crianças e adolescentes. Esse papel precisa ser das famílias, mas também do Estado e da sociedade. E a sociedade somos todos nós: as empresas, as OSCs, enfim, todos nós nessa grande aldeia.
Entrevista: Amauri Eugênio Jr.
Nós utilizamos cookies para melhorar a experiência de usuários e usuárias que navegam por nosso site.
Ao clicar em "Aceitar todos os cookies", você estará concordando com esse armazenamento no seu dispositivo.
Para conferir como cuidamos de seus dados e privacidade, acesse a nossa Política de Privacidade.