Governo diz que resposta da Meta contraria o que empresa alega no STF
Big tech tem sustentado judicialmente que suas equipes de moderação de conteúdo - em vias de acabar - são suficientes para garantir a segurança das redes

A Advocacia-Geral da União (AGU), órgão que fala judicialmente em nome do governo federal, disse nesta terça-feira, 14, que a resposta enviada pela Meta (big tech dona do WhatsApp, Instagram, Facebook e Threads) sobre como será aplicada no Brasil a nova política de moderação de conteúdos contradiz o que a companhia tem sustentado perante o Supremo Tribunal Federal (STF) nas ações que questionam a constitucionalidade do artigo 19 do Marco Civil da Internet. A AGU também disse que recebeu a resposta “com preocupação”.
A poucos minutos do término da segunda-feira, 13, a Meta respondeu aos questionamentos feitos pela AGU dizendo que a companhia “está profundamente comprometida com a liberdade de expressão” e que sua antiga política de moderação de conteúdos cerceava o “debate político legítimo”. “Queremos que as pessoas possam falar abertamente sobre os assuntos que importam para elas, mesmo que outras pessoas discordem ou considerem tais assuntos questionáveis”, disse a big tech.
Segundo a AGU, essa resposta contraria a posição que a companhia tem ostentado no âmbito judicial. “As informações prestadas pela Meta também contrariam afirmações realizadas pela empresa em recentes manifestações proferidas no curso da discussão sobre o Marco Civil da Internet, no âmbito de processos em julgamento no Supremo Tribunal Federal (STF). Em tais manifestações, representantes da empresa asseguraram que as então políticas de governança de conteúdo eram suficientes para a proteção dos direitos fundamentais dos usuários”, disse a entidade comandada por Jorge Messias nesta tarde.
As ações a que a AGU se refere são um conjunto de processos judiciais em que o STF discute a responsabilidade das plataformas sobre os conteúdos veiculados nos seus espaços. Neles, discute-se a constitucionalidade do artigo 19 do Marco Civil da Internet. Dias antes de começar o julgamento, a Meta, antevendo uma possível derrota na Corte, mudou a estratégia e passou a defender um “meio-termo”. Além dos conteúdos que já estavam dentro do seu horizonte de moderação, a companhia iria também retirar, espontaneamente, conteúdos que também tivessem ataques à democracia e ao Estado Democrático de Direito — ponto crítico da relação entre o Supremo e as big techs.
Para sustentar esse argumento, a Meta disse que suas equipes de moderação são suficientes para garantir a segurança do conteúdo publicado pelos usuários. No entanto, a existência desse mecanismo está em xeque. Na manifestação enviada segunda ao governo, a big tech disse que as notas da comunidade (novo modelo, similar ao do X de Elon Musk, em que os próprios usuários é que dizem o que é conteúdo falso e o que não é) seriam testadas primeiro apenas nos EUA. Porém, a Meta já alterou suas políticas de discurso de ódio no Brasil, permitindo que os usuários sejam mais incisivos ao falarem sobre questões raciais e identitárias.
Questionada por VEJA sobre uma eventual mudança na sua estratégia junto aos processos em trâmite no STF, a companhia respondeu que não comentará o assunto.