Fim da checagem de fatos da Meta: retrocesso no combate à desinformação e implicações para marcas

A principal crítica a esse novo modelo é que ele transfere a responsabilidade de identificar conteúdos falsos para os próprios usuários, sem a devida fiscalização de profissionais especializados

Fim da checagem de fatos da Meta: retrocesso no combate à desinformação e implicações para marcas

OPINIÃO

A Meta, gigante de tecnologia responsável por plataformas como Facebook, Instagram, Threads e WhatsApp, em uma decisão revelada há poucos dias que repercutiu no mundo inteiro, anunciou o fim do seu programa de checagem de fatos. No lugar dele, a empresa vai implantar um novo modelo baseado nas chamadas “notas de comunidade”, um recurso em que os próprios usuários das plataformas alertam sobre publicações potencialmente falsas ou desinformativas.

Esse modelo, inspirado em uma abordagem semelhante adotada pela rede X (antigo Twitter), levanta uma série de questões sobre a eficácia da moderação de conteúdo e os riscos que ele pode representar para a democracia e a saúde das discussões públicas, especialmente em um cenário de crescente polarização política.

O Impacto da decisão

O anúncio foi feito diretamente por Mark Zuckerberg em seu perfil no Instagram, onde explicou que essa mudança tem o objetivo de diminuir a remoção acidental de conteúdos e contas de usuários inocentes. Embora isso possa parecer uma medida de alívio para muitos que se sentem injustamente penalizados por sistemas automatizados, a realidade é que a checagem de fatos realizada por terceiros independentes sempre teve um caráter técnico e imparcial, essencial para garantir que a desinformação fosse combatida de forma efetiva.

 
 
 
 
 
Ver essa foto no Instagram
 
 
 
 
 
 
 
 
 
 
 

Uma publicação compartilhada por Mark Zuckerberg (@zuck)

A principal crítica a esse novo modelo é que ele delega a responsabilidade pela identificação de conteúdos falsos aos próprios usuários, sem a supervisão rigorosa de especialistas. Em sociedades polarizadas como a estadunidense e a brasileira, essa abordagem pode facilmente ser manipulada por grupos com intenções políticas ou ideológicas, criando uma bolha de informações distorcidas e enviesadas.

A responsabilidade das plataformas e o Marco Civil da Internet

No contexto brasileiro, a decisão da Meta se insere em um debate legal mais amplo sobre a responsabilidade das grandes empresas de tecnologia na moderação de conteúdo. O Supremo Tribunal Federal (STF) tem se debruçado sobre a interpretação do artigo 19 do Marco Civil da Internet, que estipula que as plataformas digitais só podem remover conteúdos após decisão judicial.

Essa interpretação foi desafiada por ministros da Corte, que defendem a necessidade de as plataformas atuarem de maneira proativa na remoção de conteúdos prejudiciais, como fake news e discursos de ódio, mesmo sem uma ordem judicial prévia.

O fim da checagem de fatos pela Meta pode agravar a situação, caso outras grandes plataformas sigam o mesmo caminho. A falta de moderação adequada em um espaço digital cada vez mais central para o debate público pode resultar em uma maior disseminação de desinformação e discursos perigosos, além de um aumento nas ações judiciais contra as plataformas, como já ocorreu com o X (antigo Twitter), que enfrentou sanções e chegou até a ser bloqueado no Brasil por descumprir ordens judiciais.

Polarização e o perigo de manipulação

A nova estratégia da Meta levanta preocupações sobre a polarização nas redes sociais. Ao substituir um sistema de checagem técnico e imparcial por um mecanismo que depende da “notificação comunitária”, a empresa cria um ambiente no qual informações erradas ou enviesadas podem ser amplificadas por grupos organizados. Isso pode resultar na formação de câmaras de eco, onde a desinformação se propaga sem contrariedade.

Marcelo Crespo, professor e coordenador do curso de Direito da ESPM, alerta que, em uma sociedade dividida como a brasileira, esse modelo pode agravar a crise de confiança nas instituições e nos meios de comunicação, dificultando o enfrentamento da desinformação de maneira eficaz.

Além disso, a abordagem pode prejudicar a democracia ao permitir que conteúdos prejudiciais, como fake news ou discursos de ódio, se espalhem sem a devida verificação. A moderação responsável, realizada por especialistas independentes, é fundamental para garantir que as plataformas não sejam usadas para manipular a opinião pública, especialmente em contextos sensíveis, como o político.

A decisão da Meta também pode impactar a confiança dos usuários, de acordo com Rafael Terra, professor de marketing digital da ESPM. Ele destaca que a mudança pode intensificar a polarização nas redes, tornando ainda mais crucial que empresas e indivíduos atuem com ética para manter a confiança do público.

“Embora a mudança promova maior participação, pode gerar preocupações sobre a credibilidade e o controle de desinformação. É um modelo que requer maturidade digital dos usuários para evitar manipulações e vieses.”, afirma.

O Impacto nas marcas

A decisão da Meta de acabar com a checagem de fatos não é apenas um passo atrás na luta contra a desinformação, mas também um reflexo de uma tendência mais ampla de mudanças nas estratégias corporativas, especialmente nas grandes empresas que lidam com questões de diversidade e posicionamento político.

A decisão de Zuckerberg também parece se alinhar com movimentos políticos mais amplos após a eleição de Donald Trump para um segundo mandato nos EUA, como os observados em empresas norte-americanas, como o McDonald’s, Walmart, John Deere, Harley-Davidson e outras, que recentemente reavaliaram suas estratégias de diversidade e inclusão.

O McDonald’s, por exemplo, anunciou que está encerrando algumas de suas iniciativas de diversidade, incluindo metas específicas para aumentar a diversidade nos níveis de liderança. Essa decisão foi justificada citando a proibição da Suprema Corte dos EUA sobre a ação afirmativa para admissões universitárias, um movimento conservador que está afetando várias grandes empresas.

O McDonald’s passa, com isso, a reduzir seus esforços em relação à diversidade e, ao contrário de práticas anteriores, suspendeu programas que incentivavam seus fornecedores a desenvolver treinamentos e aumentar a representação de grupos minoritários.

Embora essa decisão tenha sido impulsionada por fatores políticos internos nos Estados Unidos, ela reflete um ambiente de negócios cada vez mais polarizado, onde as marcas, temendo alienar certos públicos, adotam posturas mais conservadoras. Em um cenário semelhante, as decisões da Meta podem ser vistas como uma tentativa de apaziguar grupos que defendem a liberdade irrestrita de expressão, mesmo que isso signifique permitir maior disseminação de fake news.

Já um exemplo, no caso do Brasil, é a polêmica envolvendo a Avon, que, em 2024, se viu no centro de uma controvérsia após decidir não renovar seu contrato com a cantora e influenciadora Jojo Todynho. A decisão foi motivada por declarações controversas da artista sobre a comunidade LGBTQIAP+. A Avon, que segue uma política corporativa rigorosa de diversidade e inclusão, optou por não continuar trabalhando com Jojo devido aos seus posicionamentos, o que gerou uma reação negativa nas redes sociais e um movimento de boicote à marca.

Este caso ilustra como o posicionamento político das marcas pode afetar diretamente sua imagem e sua relação com diferentes públicos. A pressão para se alinhar a questões de identidade e diversidade está moldando as decisões empresariais, e o risco de alienar consumidores tem levado muitas empresas a reavaliar suas campanhas e parcerias.

A necessidade de uma regulação rigorosa e responsável

O debate sobre a checagem de fatos nas redes sociais e as práticas de moderação de conteúdo são mais relevantes do que nunca. Com o uso crescente das redes sociais como principais fontes de informação, é imprescindível que as empresas envolvidas no setor assumam sua responsabilidade na moderação de conteúdos. Em vez de relaxar suas políticas e adotar modelos que podem ser facilmente manipulados por usuários ou grupos organizados, a Meta deveria focar em reforçar seus sistemas de verificação de dados e colaborar com agências independentes de checagem.

Além disso, a decisão da Meta coloca em questão o papel das grandes plataformas no combate à desinformação, um problema que não pode ser resolvido apenas por iniciativas de auto-regulação.

A implementação de leis mais rigorosas, como o Projeto de Lei das Fake News no Brasil, e a supervisão constante das práticas das plataformas são fundamentais para garantir que o ambiente digital seja seguro, transparente e justo para todos os usuários. Sem uma ação firme e responsável das empresas de tecnologia, as redes sociais podem continuar a ser um terreno fértil para a propagação de informações falsas, prejudicando a democracia e a confiança pública.

Em resumo, o fim do programa de checagem de fatos da Meta não é apenas uma questão de mudança de modelo, mas um retrocesso significativo na luta contra a desinformação. A empresa e outras plataformas devem ser chamadas a assumir sua responsabilidade e garantir que suas ações não contribuam para o enfraquecimento das instituições democráticas e para o aumento da desinformação no mundo digital.

Foto: Depositphotos

Este site utiliza cookies e tecnologias semelhantes para personalizar publicidade e recomendar conteúdo de seu interesse. Ao navegar em nosso serviço você aceita tal monitoramento. Para mais informações leia nossa Política de Privacidade Política de Privacidade.