3 maneiras Facebook poderia reduzir notícias falsas

O público recebe muito do seu notícias e informações do Facebook. Algumas são falsas. Isso representa um problema para os usuários do site e para a própria empresa.

O co-fundador e presidente do Facebook, Mark Zuckerberg, disse que a empresa vai encontrar maneiras de resolver o problema, embora ele não tenha reconhecido sua gravidade. E sem aparente ironia, ele fez este anúncio em um Facebook cargo cercado - pelo menos para alguns espectadores - por notícias falsas.

Outras empresas de primeira tecnologia com poder semelhante sobre como o público se informa, como o Google, têm trabalhado arduamente ao longo dos anos para rebaixar informações de baixa qualidade nos resultados da pesquisa. Mas o Facebook não fez movimentos semelhantes para ajudar os usuários.

O que o Facebook poderia fazer para cumprir sua obrigação social de separar fatos da ficção para o 70 por cento dos usuários da Internet quem acessa o Facebook? Se o site é cada vez mais onde as pessoas estão recebendo suas notícias, o que a empresa poderia fazer sem assumir o manto de ser um árbitro final da verdade? Meu trabalho como professor de estudos da informação sugere que há pelo menos três opções.

Papel do Facebook

Facebook diz que é um empresa de tecnologia, não uma empresa de mídia. O principal motivo da empresa é o lucro, ao invés de um objetivo mais alto como produzir informações de alta qualidade para ajudar o público a agir conscientemente no mundo.

No entanto, as postagens no site e as conversas ao redor, tanto on-line quanto off, são cada vez mais envolvido com o nosso discurso público e a agenda política do país. Como resultado, a corporação tem uma obrigação social de usar sua tecnologia para promover o bem comum.


innerself assinar gráfico


Discernir a verdade da falsidade, no entanto, pode ser assustador. Facebook não está sozinho em levantando preocupações sobre sua capacidade - e de outras empresas de tecnologia - para julgar a qualidade das notícias. O diretor de FactCheck.org, um grupo de verificação de fatos sem fins lucrativos com sede na Universidade da Pensilvânia, disse à Bloomberg News que muitas alegações e histórias não são totalmente falsas. Muitos têm núcleos da verdade, mesmo que eles sejam muito enganosamente redigidos. Então, o que o Facebook realmente pode fazer?

Opção 1: Nudging

Uma opção que o Facebook poderia adotar envolve o uso de listas existentes que identificam pré-seleção confiável e sites de notícias falsas. O site pode então alertar aqueles que desejam compartilhar um artigo problemático que sua fonte é questionável.

Um desenvolvedor, por exemplo, criou uma extensão para o navegador Chrome que indica quando um site você está olhando pode ser falso. (Ele o chama de "BS Detector"). Em um hackathon 36-hora, um grupo de estudantes universitários criou uma extensão semelhante para o navegador Google Chrome Isso indica se o site do qual o artigo é originário está em uma lista de sites confiáveis ​​verificados ou não é verificado.

Essas extensões apresentam seus alertas enquanto as pessoas estão percorrendo seus feeds de notícias. Actualmente, nenhum destes funciona diretamente como parte do Facebook. Integrá-los proporcionaria uma experiência mais perfeita e disponibilizaria o serviço a todos os usuários do Facebook, além daqueles que instalaram uma das extensões em seu próprio computador.

A empresa também pode usar as informações geradas pelas extensões - ou seu material de origem - para avisar os usuários antes que eles compartilhem informações não confiáveis. No mundo do design de software, isso é conhecido como “cutucada. ”O sistema de alerta monitora o comportamento do usuário e notifica as pessoas ou fornece um feedback para ajudar a alterar suas ações ao usar o software.

Isso foi feito antes, para outros propósitos. Por exemplo, colegas meus aqui na Universidade de Syracuse construiu um aplicativo de deslocamento que monitora o que os usuários do Facebook estão escrevendo em um novo post. Ele aparece uma notificação se o conteúdo que eles estão escrevendo é algo que eles podem se arrepender, como uma mensagem irritada com palavrões.

A beleza das cutucadas é a maneira gentil, mas eficaz, que elas lembram as pessoas sobre o comportamento para ajudá-las a mudar esse comportamento. Estudos que testaram o uso de toques para melhorar o comportamento saudávelPor exemplo, descubra que as pessoas são mais propensas a mudar sua dieta e exercícios com base em lembranças e recomendações delicadas. Os toques podem ser eficazes porque dão controle às pessoas, ao mesmo tempo em que fornecem informações úteis. Em última análise, o destinatário do empurrão ainda decide se deve usar o feedback fornecido. As cutucadas não parecem coercivas; em vez disso, eles são potencialmente fortalecedores.

Opção 2: Crowdsourcing

O Facebook também pode usar o poder do crowdsourcing para ajudar a avaliar fontes de notícias e indicar quando as notícias que estão sendo compartilhadas foram avaliadas e classificadas. Um importante desafio com notícias falsas é que ele joga com o modo como nossos cérebros são conectados. Nós temos atalhos mentais, chamados vieses cognitivos, que nos ajudam a tomar decisões quando não temos informação suficiente (nunca o fazemos) ou tempo suficiente (nunca o fazemos). Geralmente, esses atalhos funcionam bem para nós, pois tomamos decisões sobre tudo, desde o caminho a ser conduzido até o trabalho, até que carro comprar. Mas, ocasionalmente, eles nos reprovam. A queda por notícias falsas é um desses exemplos.

Isso pode acontecer com qualquer um - até comigo. Na primeira temporada, eu estava seguindo uma hashtag no Twitter, na qual o candidato principal, Donald Trump, twittou. Apareceu uma mensagem que achei meio chocante. Eu retweetou com um comentário zombando de sua ofensividade. Um dia depois, percebi que o tweet era de uma conta de paródia que parecia idêntica ao nome do Twitter do Trump, mas tinha uma letra alterada.

Eu perdi porque eu tinha caído por viés de confirmação - a tendência a ignorar algumas informações porque isso vai contra as minhas expectativas, previsões ou palpites. Neste caso, eu desconsiderei aquela pequena voz que me disse que esse tweet em particular era um pouco exagerado para Trump, porque eu acreditava que ele era capaz de produzir mensagens ainda mais inapropriadas. Notícias falsas nos atacam da mesma maneira.

Outro problema com notícias falsas é que ele pode viajar muito mais longe do que qualquer correção que possa vir depois. Isso é semelhante aos desafios que sempre enfrentaram nas redações quando relataram informações errôneas. Embora publiquem correções, muitas vezes as pessoas originalmente expostas à desinformação nunca veem a atualização e, portanto, não sabem o que leram antes, está errado. Além disso, as pessoas tendem a manter a primeira informação que encontram; correções podem até sair pela culatra repetindo informações erradas e reforçando o erro na mente dos leitores.

Se as pessoas avaliassem as informações à medida que elas liam e compartilhassem essas avaliações, as pontuações de verdade, como os toques, poderiam fazer parte do aplicativo do Facebook. Isso pode ajudar os usuários a decidirem por si mesmos se querem ler, compartilhar ou simplesmente ignorar. Um desafio com o crowdsourcing é que as pessoas podem jogar esses sistemas para tentar gerar resultados tendenciosos. Mas, a beleza do crowdsourcing é que a multidão também pode avaliar os avaliadores, assim como acontece no Reddit ou com as análises da Amazon, para reduzir os efeitos e o peso dos encrenqueiros.

Opção 3: distância social algorítmica

A terceira maneira que o Facebook poderia ajudar seria reduzir o viés algorítmico que existe atualmente no Facebook. O site mostra principalmente postagens daqueles com quem você se envolveu no Facebook. Em outras palavras, o algoritmo do Facebook cria o que alguns chamam de bolha de filtro, um fenômeno de notícias on-line que tem estudiosos preocupados por décadas agora. Se você está exposto apenas a pessoas com ideias semelhantes às suas, isso leva a polarização políticaOs liberais se tornam ainda mais extremistas em seu liberalismo, e os conservadores ficam mais conservadores.

A bolha do filtro cria uma “câmara de eco”, onde ideias semelhantes saltam indefinidamente, mas novas informações tem dificuldade em encontrar o seu caminho. Este é um problema quando a câmara de eco bloqueia informações corretivas ou de verificação de fatos.

Se o Facebook abrisse mais notícias para entrar no feed de notícias de uma pessoa de um grupo aleatório de pessoas em sua rede social, aumentaria as chances de que novas informações, informações alternativas e informações contraditórias fluam dentro dessa rede. O número médio de amigos na rede de um usuário do Facebook é 338. Embora muitos de nós tenhamos amigos e familiares que compartilham nossos valores e crenças, também temos conhecidos e estranhos que fazem parte da nossa rede do Facebook que têm visões diametralmente opostas. Se os algoritmos do Facebook trouxessem mais desses pontos de vista para nossas redes, a bolha do filtro seria mais porosa.

Todas essas opções estão bem dentro das capacidades dos engenheiros e pesquisadores do Facebook. Eles capacitariam os usuários a tomar melhores decisões sobre as informações que escolhem ler e compartilhar com suas redes sociais. Como plataforma líder de disseminação de informações e gerador de cultura social e política por meio do compartilhamento de informações e conversas, o Facebook não precisa ser o árbitro supremo da verdade. Mas ele pode usar o poder de suas redes sociais para ajudar os usuários a avaliar o valor dos itens em meio ao fluxo de conteúdo que eles enfrentam.

A Conversação

Sobre o autor

Jennifer Stromer-Galley, professora de estudos da informação, Syracuse University

Este artigo foi originalmente publicado em A Conversação. Leia o artigo original.

Livros relacionados:

at InnerSelf Market e Amazon