No dia 7 de janeiro de 2025, a Meta, empresa-mãe do Facebook e Instagram, anunciou que encerrará o seu programa de verificação de factos feito por terceiros. Este programa, que tem sido essencial no combate à desinformação nas suas plataformas, será substituído por um modelo de moderação colaborativo chamado Community Notes, inspirado no sistema introduzido pela X (antigo Twitter).
Nova estratégia de moderação e as prioridades da Meta
Mark Zuckerberg, CEO da Meta, explicou numa declaração em vídeo que a empresa pretende “voltar às origens”, focando-se na redução de erros, simplificação das políticas e na restauração da liberdade de expressão.
Segundo a nova política, a moderação interna da empresa será prioritariamente direccionada para violações graves, como exploração infantil ou terrorismo, enquanto questões controversas ou ofensivas que não sejam necessariamente ilegais terão menos atenção.
Zuckerberg também revelou que a mudança foi motivada pelo cenário político americano, após as eleições presidenciais de 2024, que deram vitória a Donald Trump. O CEO justificou que o sistema de verificação de factos, implementado desde 2016, se tornou demasiado complexo e sujeito a falhas.
Especialistas alertam para impacto negativo em África
Para Shirley Ewang, especialista sénior da Garfield, uma organização de estratégia e advocacia conhecida pela campanha Forward with Facts, a decisão da Meta é profundamente preocupante, especialmente para a Nigéria e o continente africano.
Ewang destacou que a Nigéria já enfrenta um problema severo de desinformação. Durante as eleições de 2023, por exemplo, circulavam mais de 100 falsos relatos diários nas redes sociais, muitos deles fomentando tensões étnicas e religiosas.
A African Digital Democracy Observatory apontou que a desinformação tem sido uma ferramenta para manipular a opinião pública e promover determinados candidatos políticos, prejudicando gravemente os processos democráticos.
Desinformação já agravou conflitos étnicos e religiosos na Nigéria
Ewang lembrou casos como os conflitos étnicos no estado de Plateau, exacerbados por imagens falsas divulgadas nas redes sociais. Segundo o FactCheckHub, a desinformação contribuiu para agravar o conflito entre agricultores e pastores na Nigéria, disseminando narrativas falsas que transformaram incidentes localizados em supostos ataques étnicos ou religiosos.
Um exemplo grave citado por Ewang foi a publicação do político Femi Fani-Kayode, que partilhou a imagem de um homem segurando uma criança queimada, alegando ser resultado de um ataque de “terroristas Fulani” em Oyo. No entanto, a imagem era, na verdade, da crise no sul dos Camarões.
“Mesmo com moderação rigorosa de conteúdo, casos como este continuam a acontecer. Imagine o que poderá ocorrer quando a verificação de factos for eliminada”, alertou Ewang.
Meta já enfrenta acusações graves em África
A Meta já foi processada em 2022 por supostamente incitar violência e ódio no leste e sul de África. O caso foi apresentado ao Tribunal Superior do Quénia por Abraham Meareg, cujo pai foi assassinado durante a guerra de Tigray, após ser alvo de publicações odiosas no Facebook. Este processo é um dos muitos desafios enfrentados pela empresa no continente.
Por que o Community Notes pode falhar?
Para Ewang, o Community Notes não será um substituto eficaz para a verificação de factos. Embora promova um processo mais transparente, é insuficiente. “A desinformação percorre o mundo antes que as Community Notes sejam criadas. No fundo, não é muito diferente de um comentário com opiniões em um post”, afirmou.
Papel dos cidadãos e governos no combate à desinformação
Na Nigéria, os produtos da Meta são amplamente utilizados. Segundo a Statista, o Facebook possui 51 milhões de utilizadores no país, o Instagram tem 12,6 milhões, e o WhatsApp é igualmente popular com 51 milhões de utilizadores.
Ewang acredita que, com tantas pessoas com acesso à disseminação de informação, os cidadãos têm um papel importante no combate à desinformação, verificando a veracidade dos conteúdos antes de os partilhar.
“Estamos a tentar incentivar o governo a colaborar com organizações da sociedade civil para educar os nigerianos sobre como identificar notícias falsas. Os reguladores também devem compreender as directrizes que irão orientar plataformas como a Meta na gestão de desinformação e conteúdos prejudiciais”, concluiu.
Conclusão
Portanto, a decisão da Meta de alterar a sua abordagem de moderação para uma estratégia colaborativa pode ter implicações significativas em regiões como a Nigéria, onde a desinformação já tem consequências devastadoras. A medida aumenta o desafio de encontrar soluções eficazes para proteger a democracia e a coesão social, exigindo a colaboração entre governos, organizações civis e cidadãos.
Fonte: TechPoint
Find Us on Socials