Problema do Facebook é mais complicado do que notícias falsas

Problema do Facebook é mais complicado do que notícias falsas

Na sequência da inesperada vitória de Donald Trump, muitos questões foram levantadas sobre o papel do Facebook em a promoção de informações imprecisas e altamente partidárias durante a corrida presidencial e se esta notícia falsa influenciou o resultado da eleição.

Alguns têm minimizado Impacto do Facebook, incluindo o CEO Mark Zuckerberg, que disse que é "extremamente improvável" que notícias falsas poderiam ter influenciado a eleição. Mas questões sobre o significado político da rede social merecem mais do que atenção passageira.

Do Facebook algoritmos de filtragem explicar por que tantos liberais haviam perdido a confiança na vitória de Clinton (ecoando o erro cometido por Partidários de Romney no 2012)? E é as notícias falsas circulam no Facebook a razão pela qual tantos adeptos de Trump endossaram afirmações falsas demonstráveis ​​feitas pelo seu candidato?

A alegação popular de que “bolhas de filtro” é o motivo pelo qual as falsas notícias no Facebook estão quase certamente erradas. Se a rede está encorajando as pessoas a acreditarem em inverdades - e isso é um grande problema - o problema provavelmente está em como a plataforma interage com as tendências sociais humanas básicas. Isso é muito mais difícil de mudar.

Um público mal informado

O papel do Facebook na disseminação de notícias políticas é inegável. Em maio 2016, 44 por cento dos americanos disseram que receberam notícias do site de mídia social. E a prevalência de desinformação disseminada pelo Facebook é inegável.

É plausível, então, que a quantidade de notícias falsas em uma plataforma em que tantas pessoas recebam suas notícias possa ajudar a explicar por que tantos americanos estão mal informados sobre política.

Mas é difícil dizer qual é a probabilidade disso. Comecei a estudar o papel da internet na promoção de falsas crenças durante a eleição do 2008, voltando minha atenção para as mídias sociais no 2012. Em pesquisas em andamento, encontrei poucas evidências consistentes de que o uso de mídias sociais promoveu a aceitação de falsas alegações sobre os candidatos, apesar da prevalência de muitos inverdades. Em vez disso, parece que no 2012, como no 2008, e-mail continuou a ser um canal excepcionalmente poderoso por mentiras e teorias da conspiração. A mídia social não teve um efeito detectável confiável nas crenças das pessoas.


Receba as últimas notícias do InnerSelf


Por um momento, no entanto, vamos supor que o 2016 fosse diferente do 2012 e 2008. (A eleição foi certamente única em muitos outros aspectos.)

Se o Facebook está promovendo uma plataforma na qual os cidadãos são menos capazes de discernir a verdade da ficção, constituiria uma séria ameaça à democracia americana. Mas nomear o problema não é suficiente. Para combater o fluxo de desinformação através das mídias sociais, é importante entender por que isso acontece.

Não culpe as bolhas de filtro

O Facebook quer que seus usuários sejam engajados, não sobrecarregados, por isso emprega software proprietário que filtra os feeds de notícias dos usuários e escolhe o conteúdo que aparecerá. O risco está em como esta adaptação é feita.

Há ampla evidência que as pessoas são atraídas para notícias que afirmam o seu ponto de vista político. O software do Facebook aprende com as ações passadas dos usuários; Ele tenta adivinhar quais histórias eles provavelmente clicarão ou compartilharão no futuro. Levado ao extremo, isso produz bolha de filtro, em que os usuários são expostos apenas ao conteúdo que reafirma seus vieses. O risco, então, é que bolhas de filtro promovem percepções errôneas escondendo a verdade.

O apelo desta explicação é óbvio. É fácil de entender, então talvez seja fácil consertar. Livrar-se de feeds de notícias personalizados e bolhas de filtro não são mais.

O problema com a metáfora da bolha de filtro é que ela pressupõe que as pessoas estão perfeitamente isoladas de outras perspectivas. De fato, numeroso estudos tem mostrando as dietas midiáticas dos indivíduos quase sempre incluem informações e fontes que desafiam suas atitudes políticas. E um estudo de dados de usuários do Facebook descobriram que os encontros com informações transversais são difundidos. Em outras palavras, é pouco provável que as falsas crenças sejam explicadas pelas pessoas. falta de contato com notícias mais precisas.

Em vez disso, as identidades políticas preexistentes das pessoas moldar profundamente suas crenças. Então, mesmo quando confrontados com a mesma informação, seja uma notícia ou um Verificação de fato, pessoas com diferentes orientações políticas freqüentemente extraem significados dramaticamente diferentes.

Um experimento mental pode ajudar: Se você fosse um apoiador de Clinton, sabia que o site de previsões altamente respeitado FiveThirtyEight deu a Clinton apenas uma chance de 71 por cento de ganhar? Essas chances são melhores do que um coin flip, mas longe de ser uma coisa certa. Eu suspeito que muitos democratas ficaram chocados, apesar de ver essa evidência desconfortável. De fato, muitos haviam criticado essa projeção nos dias antes da eleição.

Se você votou em Trump, você já encontrou provas contestando a afirmação de Trump de que a fraude eleitoral é comum nos EUA? Verificadores de fatos e organizações de notícias cobriram essa questão extensivamente, oferecendo evidências robustas de que a afirmação é falsa. No entanto, um torcedor do Trump pode ficar indiferente: Em uma enquete em setembro 2016, 90 por cento dos partidários de Trump disseram que não confiavam em verificadores de fatos.

Facebook = partidários com raiva?

Se o isolamento da verdade realmente é a principal fonte de informações imprecisas, a solução seria óbvia: tornar a verdade mais visível.

Infelizmente, a resposta não é tão simples assim. O que nos traz de volta à questão do Facebook: existem outros aspectos do serviço que podem distorcer as crenças dos usuários?

Demorará algum tempo até que os pesquisadores possam responder a essa pergunta com confiança, mas, como alguém que estudou como as diversas formas pelas quais outras tecnologias da Internet podem levar as pessoas a acreditar em informações falsas, estou preparado para oferecer algumas suposições fundamentadas.

Há duas coisas que já sabemos sobre o Facebook que podem incentivar a disseminação de informações falsas.

Primeiro, as emoções são contagiosas e podem se espalhar pelo Facebook. Um estudo em larga escala mostrou que pequenas mudanças nos feeds de notícias dos usuários do Facebook pode moldar as emoções que eles expressam em posts posteriores. Nesse estudo, as mudanças emocionais foram pequenas, assim como as mudanças no feed de notícias que as causaram. Imagine como os usuários do Facebook respondem a acusações generalizadas de corrupção, atividades criminosas e mentiras dos candidatos. Não é surpreendente que quase metade (49 por cento) de todos os usuários descreveram a discussão política nas mídias sociais como "irritada".

Quando se trata de política, a raiva é uma emoção poderosa. Tem sido mostrado para fazer as pessoas mais disposto a aceitar falsidades partidárias e mais propensos a postar e compartilhar informação política, presumivelmente incluindo artigos de notícias falsas que reforçam suas crenças. Se o uso do Facebook deixar os partidários zangados, expondo-os a falsidades partidárias, garantir a presença de informações precisas pode não importar muito. Republicanos ou democratas, pessoas furiosas depositam sua confiança em informações que fazem com que seu lado pareça bom.

Em segundo lugar, o Facebook parece reforçar a identidade política das pessoas - promovendo um já grande divisão partidária. Embora o Facebook não proteja as pessoas das informações com as quais elas discordam, certamente torna mais fácil encontrar pessoas que pensam como elas. Nossas redes sociais tendem a incluir muitas pessoas que compartilham nossos valores e crenças. E isso pode ser outra maneira pela qual o Facebook está reforçando falsidades com motivação política. As crenças geralmente servem a uma função social, ajudando as pessoas a definir quem são e como se encaixam no mundo. Quanto mais fácil para as pessoas se verem em termos políticos, mais ligadas a elas são as crenças que afirmam essa identidade.

Esses dois fatores - o modo como a raiva pode se espalhar pelas redes sociais do Facebook e como essas redes podem tornar a identidade política dos indivíduos mais central para quem são - provavelmente explicam as crenças imprecisas dos usuários do Facebook de forma mais eficaz do que a chamada bolha filtrante.

Se isso for verdade, então temos um sério desafio pela frente. O Facebook provavelmente será convencido a mudar seu algoritmo de filtragem para priorizar informações mais precisas. O Google já empreenderam um esforço semelhante. E relatórios recentes sugerem que o Facebook pode ser levando o problema mais a sério do que os comentários de Zuckerberg sugerem.

Mas isso não faz nada para abordar as forças subjacentes que propagam e reforçam informações falsas: emoções e as pessoas em suas redes sociais. Tampouco é óbvio que essas características do Facebook possam ou devam ser "corrigidas". Uma rede social desprovida de emoção parece uma contradição, e o policiamento com o qual os indivíduos interagem não é algo que nossa sociedade deva aceitar.

Pode ser que as ações do Facebook alguns da culpa por alguns das mentiras que circularam este ano eleitoral - e que alteraram o rumo da eleição.

Se for verdade, o desafio será descobrir o que podemos fazer sobre isso.

A Conversação

Sobre o autor

R. Kelly GarrettProfessor Associado de Comunicação, A Universidade Estadual de Ohio

Este artigo foi originalmente publicado em A Conversação. Leia o artigo original.

Livros relacionados

{amazonWS: searchindex = Livros; palavras-chave = notícias falsas; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

siga InnerSelf on

facebook-icontwitter-iconrss-icon

Receba as últimas por e-mail

{Emailcloak = off}