O que é (e o que não é) regulação de redes sociais
Regulação de redes sociais é criar regras claras para plataformas digitais quando elas afetam direitos, mercado e democracia. Não é “controlar opinião” nem autorizar censura prévia.
O problema é que as redes não são neutras: algoritmos decidem alcance, anúncios são altamente segmentados e decisões automatizadas podem ampliar riscos (fraudes, golpes, campanhas coordenadas e danos a grupos vulneráveis).
No Brasil, a Constituição, o Marco Civil da Internet e a Lei Geral de Proteção de Dados já são pilares. O desafio é detalhar, com precisão, temas centrais do ecossistema atual, como recomendação algorítmica, transparência de anúncios e acesso seguro a dados para pesquisa.
Por que a regulação modular de redes sociais destrava o debate
Em vez de uma lei única e gigantesca tentando resolver tudo, a proposta é uma regulação setorial modularizada: dividir o tema em módulos (eixos) que podem ser aprovados e implementados por etapas.
Isso tende a:
- reduzir a polarização (separa temas “técnicos” dos mais ideológicos);
- acelerar os resultados (um módulo avança sem depender do outro);
- facilitar a atualização (cada eixo pode ser revisto quando a tecnologia muda);
- melhorar a fiscalização (obrigações objetivas e mensuráveis).
Leia também: Responsabilidade Civil das Plataformas Digitais
Fase 1: Módulos prioritários para o Brasil
A ideia é começar por eixos com alto benefício e menor conflito político, criando evidências e capacidade de controle.
Transparência algorítmica
Sistemas de recomendação e ranking controlam o terreno do debate. Um módulo de transparência algorítmica pode exigir:
- relatórios periódicos sobre como recomendação e segmentação funcionam;
- avaliação de riscos e impactos (incluindo vieses e efeitos sobre vulneráveis);
- auditorias independentes para plataformas de grande porte;
- explicações ao usuário (“por que estou vendo isso?”) e opções de controle.
Publicidade digital rastreável
Quando anúncios são opacos, fica difícil fiscalizar abuso e manipulação. Um módulo de publicidade digital pode criar um repositório público de anúncios e limites para segmentações de alto risco.
O que faz diferença nesse repositório:
- quem pagou e quem é o beneficiário final;
- período, valores e alcance estimado;
- critérios gerais de segmentação (com proteção a dados sensíveis);
- marcação reforçada para anúncios políticos e temas de interesse público.
Isso aumenta a responsabilização de anunciantes e melhora a atuação de consumidor, imprensa e autoridades.
Acesso a dados para pesquisa, com privacidade
Sem dados, o debate vira opinião contra opinião. Um módulo de acesso a dados para pesquisa pode permitir investigação independente com salvaguardas:
- APIs com documentação e limites de uso;
- ambientes controlados (“salas seguras”) para dados sensíveis;
- credenciamento de pesquisadores e exigência de plano de segurança;
- registro público de pedidos deferidos/indeferidos e divulgação de resultados.
Pesquisas ajudam a medir risco, comparar políticas e corrigir rotas com evidência.
Identificação, pseudonímia e combate a bots
O tema do anonimato é delicado. Um ponto importante é: vedar anonimato não precisa virar “nome real público obrigatório”.
Um caminho do meio é a pseudonímia: o perfil pode ser público com apelido, mas existe uma identidade verificada em segundo plano, acessível só em hipóteses legais e com devido processo.
Isso pode:
- reduzir bots, contas falsas e fraudes;
- aumentar rastreabilidade em crimes e golpes;
- preservar segurança de grupos vulneráveis (com salvaguardas e exceções bem definidas).
Fase 2: moderação e desinformação
Temas como moderação de conteúdo, discurso de ódio e desinformação são os que mais travam o debate público. A modularização sugere tratar esse bloco depois que o país já tiver transparência, métricas e instrumentos de auditoria.
Quando esse debate vier, dois “freios” são essenciais:
- devido processo: notificação, justificativa e recurso;
- deveres proporcionais ao risco: obrigações maiores para plataformas maiores.
Em paralelo, o Supremo Tribunal Federal tem discutido parâmetros de responsabilidade de plataformas no contexto do Marco Civil, o que reforça a importância de regras claras e aplicáveis.
Quem deve regular e como evitar uma "colcha de retalhos" regulatória
Módulos só funcionam com coordenação. Três caminhos costumam aparecer:
- criar uma autoridade especializada em plataformas digitais;
- ampliar competências de órgãos existentes (por exemplo, ANPD, em dados);
- modelo híbrido: órgãos existentes + instância permanente de coordenação.
Roteiro pragmático de implementação regulatória
- Aprovar transparência algorítmica + repositório de anúncios.
Começar pelo que aumenta visibilidade e controle social: como conteúdos e anúncios circulam, quem paga, quem se beneficia e quais critérios de segmentação foram usados.
- Implementar acesso a dados para pesquisa com salvaguardas.
Criar canais seguros (Application Programming Interface/APIs e/ou ambientes controlados) para que pesquisadores e órgãos de controle consigam medir riscos e impactos sem violar privacidade.
- Só então enfrentar moderação e desinformação com base em evidências e métricas.
Com transparência e dados, o debate sai do “achismo” e ganha parâmetros verificáveis, com foco em proporcionalidade, devido processo e deveres compatíveis com o tamanho e o risco de cada plataforma.
Conclusão: modularizar para proteger direitos e reduzir riscos digitais
Regulação de redes sociais não precisa nascer como “lei total”. Ao avançar por módulos, o Brasil entrega o urgente (transparência, anúncios e dados) e cria capacidade institucional para enfrentar temas controversos com critérios claros e revisáveis.
No fim, o objetivo é direto: reduzir riscos reais do ambiente digital (fraudes, campanhas coordenadas, abuso publicitário e opacidade algorítmica) sem sacrificar direitos fundamentais, especialmente liberdade de expressão, privacidade e devido processo. O caminho modular não “foge” dos temas difíceis, propõe-se uma ordem mais inteligente para enfrentá-los, criando ferramentas de transparência e fiscalização; depois, discutindo responsabilidades e moderação com critérios claros, mensuráveis e revisáveis.
A publicação completa do conteúdo sobre esse tema está disponível na Revista de Direito Administrativo e Infraestrutura, volume 36, que será lançada em fevereiro de 2026.
Sobre os autores
Vivian Cristina Lima López Valle
Professora permanente e Titular de Direito Administrativo e Direito Constitucional na Graduação e Pós-Graduação (Lato e Stricto Sensu) da Escola de Direito da Pontifícia Universidade Católica do Paraná – PUCPR. Doutora em Direito do Estado pela UFPR, com estágio de pesquisa na Universidade de Coimbra (Portugal), e Pós-Doutora pela Universitat Rovira i Virgili (Espanha). Mestre em Direito pela UFPR (bolsista Capes). Pesquisadora do Nuped/PPGD/PUCPR. Pesquisadora associada ao Idasan e ao IPDA e professora investigadora da Red Latinoamericana de Derecho Económico Circular (IIJ/Unam).
Analía Antik
Professora Associada Ordinária de Direito Administrativo na Faculdade de Direito da Universidad Nacional de Rosario (UNR), onde também dirige a Maestría en Derecho Publico. Doutora em Direito pela UNR. Pesquisadora (Consejo de Investigaciones/UNR) e docente. Atua como Presidenta da Asociación Argentina de Derecho Administrativo (AADA) e integra redes acadêmicas ibero-latino-americanas de Direito Administrativo. Foi docente da Escola de Advogados do Estado (Procuración del Tesoro de la Nación).
Luis Fernando Trevisan
Mestrando em Direito pelo Programa de Pós-Graduação em Direito da Pontifícia Universidade Católica do Paraná – PPGD/PUC-PR (Curitiba, Paraná, Brasil). Pesquisador no Núcleo de Pesquisas em Políticas Públicas e Desenvolvimento Humano da PUC-PR (Nuped/PPGD/PUCPR).