Em audiência pública realizada pela Advocacia-Geral da União (AGU) em Brasília, na quarta-feira (22/01/2025), pesquisadores e representantes de organizações da sociedade civil criticaram as recentes mudanças nas políticas de moderação de conteúdo da Meta. A empresa, controladora das redes sociais Facebook, Instagram e WhatsApp, anunciou alterações que, segundo os especialistas, podem aumentar as dificuldades para grupos vulneráveis e permitir a disseminação de conteúdos preconceituosos e de ódio.
A professora Rose Marie Santini, diretora do laboratório de estudos de internet da Universidade Federal do Rio de Janeiro (UFRJ), afirmou que as modificações, que incluem a remodelação dos programas de checagem de fatos e a flexibilização na moderação de discursos de ódio, representam um retrocesso para a proteção dos direitos e liberdades fundamentais da sociedade. Segundo ela, a mudança mais significativa foi a alteração dos algoritmos da plataforma, que agora têm o poder de decidir quais vozes serão amplificadas ou silenciadas.
“Esses algoritmos operam de forma opaca, sem transparência sobre seus critérios e efeitos reais na sociedade”, destacou.
Santini enfatizou que essa falta de transparência mina a confiança pública na responsabilidade da Meta em proteger a liberdade de expressão. Ela argumentou que, ao permitir a moderação sem critérios claros, as plataformas digitais se tornam responsáveis por uma forma de censura, em que apenas as vozes escolhidas pela empresa têm liberdade para se expressar.
“A censura não vem mais apenas do Estado, mas das próprias plataformas”, completou.
A professora Beatriz Kira, da Universidade de Sussex (Reino Unido), também apontou preocupações sobre os impactos das novas políticas, em especial em relação à disseminação de conteúdos sexistas e misóginos. Ela mencionou o papel das plataformas digitais na amplificação desses discursos, que, segundo ela, teriam menos impacto sem a internet. Kira afirmou que as tecnologias emergentes, como a inteligência artificial generativa, intensificam a violência de gênero, e que a regulação estatal sobre as plataformas se torna ainda mais urgente diante desse cenário.
A proteção de crianças também foi destacada como uma questão crítica durante a audiência. Pedro Hartung, diretor de políticas e direitos das crianças do Instituto Alana, ressaltou que a moderação de conteúdo é essencial para a proteção infantil, especialmente considerando que 93% das crianças e adolescentes no Brasil acessam a internet. Hartung criticou a exploração comercial dessas plataformas, que visam a captura da atenção dos menores, e chamou a atenção para o impacto da publicidade e do trabalho infantil artístico nas redes sociais. Ele também lembrou dos ataques nas escolas em 2023, relacionados à radicalização de jovens por meio da internet.
Victor De Wolf, presidente da Associação Brasileira de Lésbicas, Gays, Bissexuais, Travestis, Transexuais e Intersexos, acrescentou que as novas políticas de moderação da Meta exacerbam a violência contra a comunidade LGBT, permitindo conteúdos discriminatórios, incluindo a associação de doenças mentais a questões de gênero e orientação sexual. De Wolf também destacou a persistente violência contra a comunidade LGBT no Brasil, afirmando que a mudança nas políticas da Meta é parte de uma tendência mais ampla de intolerância. Ele enfatizou a necessidade de responsabilizar judicialmente as plataformas que violam os direitos dos cidadãos.
*Com informações da Agência Brasil.
Share this:
- Click to print (Opens in new window) Print
- Click to email a link to a friend (Opens in new window) Email
- Click to share on X (Opens in new window) X
- Click to share on LinkedIn (Opens in new window) LinkedIn
- Click to share on Facebook (Opens in new window) Facebook
- Click to share on WhatsApp (Opens in new window) WhatsApp
- Click to share on Telegram (Opens in new window) Telegram
Relacionado
Discover more from Jornal Grande Bahia (JGB)
Subscribe to get the latest posts sent to your email.




