O Facebook tem um problema de desinformação, bloqueia o acesso a dados e quem é afetado

Publicado por: Editor Feed News
02/11/2021 13:23:49
Exibições: 135
Cortesia Pexels/iStock
Cortesia Pexels/iStock

Quão grande é o problema da desinformação nas redes sociais? Sem dados importantes, a imagem fica no escuro.

 

Documentos internos vazados sugerem que o Facebook - que recentemente se renomeou Meta - está se saindo muito pior do que afirma em minimizar a desinformação da vacina COVID-19 na plataforma de mídia social do Facebook.

 

A desinformação online sobre o vírus e as vacinas é uma grande preocupação. Em um estudo, os entrevistados que obtiveram algumas ou todas as notícias do Facebook foram significativamente mais propensos a resistir à vacina COVID-19 do que aqueles que receberam as notícias de fontes da mídia convencional.

 

Como um pesquisador que estuda a mídia social e cívica , acredito que é extremamente importante entender como a desinformação se espalha online. Mas isso é mais fácil dizer do que fazer. A simples contagem de ocorrências de desinformação encontradas em uma plataforma de mídia social deixa duas questões-chave sem resposta: Qual a probabilidade de os usuários encontrarem desinformação e alguns usuários são especialmente propensos a serem afetados por desinformação? Essas questões são o problema do denominador e o problema da distribuição.

 

O estudo de desinformação COVID-19, “ Algoritmo do Facebook: uma grande ameaça à saúde pública ”, publicado pelo grupo de defesa de interesse público Avaaz em agosto de 2020, relatou que fontes que frequentemente compartilhavam desinformação sobre saúde - 82 sites e 42 páginas do Facebook - tinham um total estimado alcance de 3,8 bilhões de visualizações em um ano.

 

À primeira vista, esse é um número incrivelmente grande. Mas é importante lembrar que este é o numerador . Para entender o que significa 3,8 bilhões de visualizações em um ano, você também precisa calcular o denominador . O numerador é a parte de uma fração acima da linha, que é dividida pela parte da fração abaixo da linha, o denominador.

 

Obtendo alguma perspectiva

Um possível denominador são 2,9 bilhões de usuários ativos mensais do Facebook , caso em que, em média, cada usuário do Facebook foi exposto a pelo menos uma informação proveniente dessas fontes de desinformação sobre saúde. Mas são 3,8 bilhões de visualizações de conteúdo, não usuários discretos. Quantas informações o usuário médio do Facebook encontra em um ano? O Facebook não divulga essas informações.

O texto que mostra o problema de desinformação é igual ao sinal n sobre o ponto de interrogação
Sem saber o denominador, um numerador não diz muito. The Conversation US , CC BY-ND

Pesquisadores de mercado estimam que os usuários do Facebook passam de 19 minutos por dia a 38 minutos por dia na plataforma. Se 1,93 bilhão de usuários ativos diários do Facebook veem uma média de 10 postagens em suas sessões diárias - uma estimativa muito conservadora - o denominador para 3,8 bilhões de informações por ano é 7,044 trilhões (1,93 bilhão de usuários diários vezes 10 postagens diárias vezes 365 dias em um ano). Isso significa que aproximadamente 0,05% do conteúdo do Facebook são postagens dessas páginas suspeitas do Facebook.

 

O número de 3,8 bilhões de visualizações abrange todo o conteúdo publicado nessas páginas, incluindo conteúdo inócuo sobre saúde, de modo que a proporção de postagens do Facebook que são desinformação sobre saúde é menor que um vigésimo de um por cento.

 

É preocupante que haja desinformação suficiente no Facebook para que todos tenham encontrado pelo menos uma instância? Ou é reconfortante que 99,95% do que é compartilhado no Facebook não provém dos sites sobre os quais a Avaaz avisa? Nenhum.

 

Distribuição de desinformação

Além de estimar um denominador, também é importante considerar a distribuição dessas informações. Todos no Facebook têm a mesma probabilidade de encontrar informações incorretas sobre saúde? Ou as pessoas que se identificam como antivacinas ou que buscam informações de “saúde alternativa” têm maior probabilidade de encontrar esse tipo de informação incorreta?

 

Outro estudo de mídia social com foco em conteúdo extremista no YouTube oferece um método para entender a distribuição de desinformação. Usando dados do navegador de 915 usuários da web , uma equipe da Liga Antidifamação recrutou uma grande amostra demograficamente diversa de usuários da web dos EUA e fez uma amostragem excessiva de dois grupos: usuários pesados ​​do YouTube e indivíduos que mostraram fortes preconceitos raciais ou de gênero negativos em um conjunto de perguntas perguntado pelos investigadores. A amostragem excessiva está pesquisando um pequeno subconjunto de uma população, mais do que sua proporção da população, para registrar melhor os dados sobre o subconjunto.

 

Os pesquisadores descobriram que 9,2% dos participantes assistiram a pelo menos um vídeo de um canal extremista e 22,1% assistiram a pelo menos um vídeo de um canal alternativo, durante os meses cobertos pelo estudo. Uma parte importante do contexto a ser observada: Um pequeno grupo de pessoas foi responsável pela maioria das visualizações desses vídeos. E mais de 90% das visualizações de vídeos extremistas ou “alternativos” foram por pessoas que relataram um alto nível de ressentimento racial ou de gênero na pesquisa pré-estudo.

 

Enquanto cerca de 1 em cada 10 pessoas encontraram conteúdo extremista no YouTube e 2 em 10 encontraram conteúdo de provocadores de direita, a maioria das pessoas que encontraram esse tipo de conteúdo “rebateu” e foi para outro lugar. O grupo que encontrou conteúdo extremista e procurou mais dele eram pessoas que presumivelmente tinham um interesse: pessoas com fortes atitudes racistas e sexistas.

 

Os autores concluíram que “o consumo desse conteúdo potencialmente prejudicial está, em vez disso, concentrado entre americanos que já têm um alto índice de ressentimento racial” e que os algoritmos do YouTube podem reforçar esse padrão. Em outras palavras, apenas saber a fração de usuários que encontra conteúdo extremo não indica quantas pessoas o estão consumindo. Para isso, você também precisa conhecer a distribuição.

 

Superspreaders ou whack-a-mole?

Um estudo amplamente divulgado do grupo de defesa do discurso de ódio Center for Countering Digital Hate intitulado Pandemic Profiteers mostrou que de 30 grupos antivacinas do Facebook examinados, 12 celebridades antivacinas foram responsáveis ​​por 70% do conteúdo circulado nesses grupos, e os três mais proeminentes foram responsáveis ​​por quase metade. Mas, novamente, é fundamental perguntar sobre os denominadores: quantos grupos antivacinas estão hospedados no Facebook? E que porcentagem de usuários do Facebook encontra o tipo de informação compartilhada nesses grupos?

 

Sem informações sobre denominadores e distribuição, o estudo revela algo interessante sobre esses 30 grupos antivacinas do Facebook, mas nada sobre desinformação médica no Facebook como um todo.

 

Uma mão segura um smartphone exibindo uma mensagem do Facebook sobre como limitar a desinformação do COVID-19
 
O Facebook afirma que está combatendo a desinformação do COVID-19 em suas plataformas, mas sem saber a extensão do problema, não há como julgar os esforços da empresa. Andrew Caballero-Reynolds / AFP via Getty Images

Esses tipos de estudos levantam a questão: “Se os pesquisadores podem encontrar esse conteúdo, por que as plataformas de mídia social não podem identificá-lo e removê-lo?” O estudo Pandemic Profiteers, que sugere que o Facebook poderia resolver 70% do problema da desinformação médica excluindo apenas uma dúzia de contas, defende explicitamente a deplataforma desses traficantes de desinformação. No entanto, descobri que 10 dos 12 influenciadores antivacinas apresentados no estudo já foram removidos pelo Facebook.

 

Considere Del Bigtree, um dos três propagadores mais proeminentes da desinformação vacinal no Facebook. O problema não é que Bigtree está recrutando novos seguidores antivacinas no Facebook; é que os usuários do Facebook seguem Bigtree em outros sites e trazem seu conteúdo para suas comunidades no Facebook. Não são 12 indivíduos e grupos postando informações incorretas sobre saúde online - são provavelmente milhares de usuários individuais do Facebook compartilhando informações incorretas encontradas em outros lugares da web, apresentando essas dezenas de pessoas. É muito mais difícil banir milhares de usuários do Facebook do que banir 12 celebridades antivacinas.

 

É por isso que as questões de denominador e distribuição são críticas para entender a desinformação online. O denominador e a distribuição permitem que os pesquisadores perguntem até que ponto os comportamentos comuns ou raros são on-line e quem se envolve nesses comportamentos. Se milhões de usuários se depararem com bits ocasionais de desinformação médica, os rótulos de advertência podem ser uma intervenção eficaz. Mas se a desinformação médica for consumida principalmente por um grupo menor que está ativamente procurando e compartilhando esse conteúdo, esses rótulos de advertência provavelmente serão inúteis.

 

Obtendo os dados certos

Tentar entender a desinformação contando-a, sem considerar denominadores ou distribuição, é o que acontece quando boas intenções colidem com ferramentas ruins. Nenhuma plataforma de mídia social permite que os pesquisadores calculem com precisão o quão proeminente é uma parte específica do conteúdo em sua plataforma.

 

O Facebook restringe a maioria dos pesquisadores à sua ferramenta Crowdtangle , que compartilha informações sobre o envolvimento do conteúdo, mas isso não é o mesmo que visualizações de conteúdo. O Twitter proíbe explicitamente que os pesquisadores calculem um denominador, seja o número de usuários do Twitter ou o número de tweets compartilhados em um dia. O YouTube torna tão difícil descobrir quantos vídeos estão hospedados em seu serviço que o Google pede rotineiramente aos candidatos para entrevistar o número de vídeos hospedados no YouTube para avaliar suas habilidades quantitativas.

 

Os líderes das plataformas de mídia social argumentaram que suas ferramentas, apesar de seus problemas, são boas para a sociedade , mas esse argumento seria mais convincente se os pesquisadores pudessem verificar essa afirmação de forma independente .

 

À medida que os impactos sociais das mídias sociais se tornam mais proeminentes, a pressão sobre as grandes plataformas de tecnologia para liberar mais dados sobre seus usuários e seu conteúdo tende a aumentar. Se essas empresas responderem aumentando a quantidade de informações que os pesquisadores podem acessar, observe com atenção: elas permitirão que os pesquisadores estudem o denominador e a distribuição do conteúdo online? E se não, eles têm medo do que os pesquisadores vão encontrar?

Por 

Professor Associado de Políticas Públicas, Comunicação e Informação, University of Massachusetts Amherst

Originalmente Publicado por: The Conversation

Imagens de notícias

Tags:

Compartilhar

Comentários