Notas de comunidade: entenda como será o sistema que a Meta vai implementar
Na terça-feira, 7, Mark Zuckerberg, CEO da Meta, anunciou uma série de mudanças na regulação dos conteúdos de suas redes sociais, o Facebook, o Instagram e o Threads. Elas decretam o fim da moderação de conteúdo, com o encerramento do programa de checagem de fatos e a relaxamento nos filtros de inteligência artificial. No lugar, a empresa adotará o método de Notas de comunidade, no qual os próprios usuários serão responsáveis por denunciar conteúdos considerados nocivos.
A decisão de Zuckerberg agradou os apoiadores de Donald Trump, que inclusive afirmou que suas ameaças a Zuckerberg "provavelmente" influenciaram as mudanças do CEO. Em 2024, Trump ameaçou "mandar Zuckerberg para prisão perpétua" caso ele usasse as redes sociais para prejudicar sua reeleição.
O sistema de Notas de comunidade foi adotado inicialmente no X, de Elon Musk, que passou a ser conhecido como um ambiente digital que abraça o radicalismo, desinformação e outros conteúdos nocivos. A ferramenta de moderação faz com que os próprios usuários sejam responsáveis por denunciar conteúdo considerado nocivo nas redes, mas o caminho não é tão simples assim. Veja abaixo como o recurso funciona.
Como funciona?
As Notas de comunidade são uma forma coletiva de moderação e, segundo a Meta, uma maneira "menos parcial" de checagem de fatos, substituindo o trabalho de agências especializadas.
A ferramenta funciona por meio de usuários voluntários, que poderão sinalizar, por meio de mensagens curtas, se o conteúdo é considerado nocivo para a comunidade. Depois disso, outros usuários avaliam se a nota é considerada útil ou não, por meio de critérios como a clareza da informação e o uso das fontes. Se a maioria aprovar, o alerta deve aparecer embaixo das postagens.
De acordo com a Meta, usuários poderão se inscrever para o processo a partir da próxima segunda-feira, 13. Entretanto, não divulgou quais serão os critérios avaliados.
Quais são os riscos desse tipo de moderação?
Até aqui, a Meta mantinha um programa de checagem de fatos em mais de 26 idiomas ao redor do mundo, além de contratos com mais de 80 veículos de comunicação para a realização desse trabalho de verificação. Agora, essa responsabilidade será dos usuários, que dependerão do bom senso da comunidade para considerar um contéudo "perigoso" ou não.
É notável que haverá pessoas mal intencionadas e que, assim, a disseminação de notícias falsas nas redes socias será muito mais simplificada e ampliada.
Segundo a Meta, as plataformas só influenciarão em postagens claramente nocivas, como discursos sobre terrorismo, por exemplo.
Além disso, em seu vídeo, Zuckerberg afirmou que a empresa deixará de sinalizar posts que falam sobre gênero, sexualidade e imigração, temas que podem, muitas vezes, vir acompanhados de um forte discurso de ódio. Para o CEO, essa é a maneira de voltarmos para as "raízes e origens" das redes sociais. Segundo ele, a checagem de fatos foi "longe demais" e "vem se confundindo com censura".
*Mariana Cury é estagiária sob supervisão do editor Bruno Romani