Como a guerra na notícia falsificada poderia ser ganha com a ajuda da ciência comportamental

Como a guerra na notícia falsificada poderia ser ganha com a ajuda da ciência comportamental
Não está claro se a campanha de notícias anti-falsificação da Malásia também é apoiada pela ciência comportamental.
Foto da AP / Vincent Thian

CEO do Facebook, Mark Zuckerberg reconheceu recentemente a responsabilidade de sua empresa em ajudar a criar a enorme quantidade de notícias falsas que atormentaram a eleição 2016 - depois negações anteriores. No entanto, ele não ofereceu detalhes concretos sobre o que o Facebook poderia fazer a respeito.

Felizmente, há uma maneira de combater notícias falsas que já existem e tem ciência comportamental do seu lado: o Promessa da Verdade-Verdade projeto.

I fez parte de uma equipe de cientistas comportamentais que surgiu com a idéia de um compromisso como uma forma de limitar a disseminação da desinformação online. Dois estudos que tentaram avaliar sua eficácia sugerem que realmente funciona.

Lutando notícias falsas

Um crescente número de legisladores americanos e cidadãos comuns acredita que as empresas de mídia social como Facebook e Twitter precisam fazer mais para combater a disseminação de notícias falsas - mesmo que isso resulte em censura.

A pesquisa recente, por exemplo, mostrou que 56 por cento dos entrevistados dizem que as empresas de tecnologia "devem tomar medidas para restringir informações falsas on-line, mesmo que limitem a liberdade de informação".

Mas quais os passos que poderiam dar - com falta de censura e controle do governo - é uma grande questão.

Antes de responder isso, vamos considerar como as notícias falsas se espalham. Na eleição 2016, por exemplo, aprendemos que um muita desinformação foi um resultado de bots russos que usado falsidades para tentar exacerbar as divisões religiosas e políticas americanas.

No entanto, as postagens feitas por bots não significariam muito, a menos que milhões de usuários regulares de mídia social escolhessem compartilhar as informações. E acontece que pessoas comuns espalhar desinformação nas mídias sociais muito mais rápido e além do que as histórias verdadeiras.

Em parte, esse problema resulta de pessoas compartilhando histórias sem lê-los. Eles não sabiam que estavam espalhando falsidades.

No entanto, 14 por cento dos americanos pesquisados ​​em um Pesquisa 2016 relatou conscientemente compartilhar notícias falsas. Isso pode ser porque a pesquisa mostra que as pessoas são mais provável enganar os outros quando beneficia seu partido político ou outro grupo ao qual eles pertencem, especialmente quando eles vêem outros desse grupo compartilhando desinformação.

Felizmente, as pessoas também têm um tique comportamental que pode combater isso: queremos ser vistos como honestos. Pesquisas mostram que o incentivo das pessoas a mentir diminui quando elas acreditam que existe maior risco de consequências negativas, são lembrados sobre ética, ou cometer para se comportar honestamente.

É por isso que os códigos de honra reduzir a trapaça e promessas de virgindade atraso início sexual.

'Being Patriotic' era uma página do Facebook que supostamente era dirigida por provocadores russos
'Being Patriotic' era uma página no Facebook que supostamente era dirigida por provocadores russos que tentavam influenciar a eleição do 2016. Mas não teria ido a lugar nenhum se os usuários comuns não o compartilhassem.
AP Photo / Jon Elswick

Tomando a promessa

É aí que entra o “compromisso pró-verdade”.

Chocado com a desinformação que caracterizou as eleições dos EUA e Campanha britânica BrexitUm grupo de cientistas comportamentais da Ohio State University e da Universidade da Pensilvânia, incluindo eu, queria criar uma ferramenta para combater a desinformação. O compromisso, lançado em dezembro 2016, é um projeto de uma organização sem fins lucrativos que eu co-fundei Insights intencionais.

O compromisso visa promover a honestidade, pedindo às pessoas que se comprometam com os comportamentos 12 que a pesquisa mostra correlacionar com uma orientação para a veracidade. Por exemplo, a promessa pede aos compradores que checam as informações antes de compartilhá-las, citam fontes, pedem a amigos e inimigos que retratem informações que sejam falsas e desencorajam outras pessoas a usar fontes de notícias não confiáveis.

Até agora, as pessoas e organizações da 6,700 assumiram o compromisso, incluindo o psicólogo social americano Jonathan HaidtFilósofo moral australiano Peter Singer, Viés de mídia / verificação de fatos e legisladores dos EUA Beto O'Rourke, Matt Cartwright e Marcia Fudge.

Sobre a 10 meses após o lançamento do compromisso, meus colegas e eu queríamos avaliar se, de fato, ela foi eficaz em mudar o comportamento e reduzir a disseminação de notícias não verificadas. Por isso, realizamos dois estudos comparando o compartilhamento de solicitantes no Facebook. Para adicionar um pouco de perspectiva externa, incluímos um pesquisador da Universidade de Stuttgart que não participou da criação do compromisso.

In um estudoPedimos aos participantes para preencherem uma pesquisa avaliando o quão bem o compartilhamento de informações por conta própria e as páginas de perfil de outras pessoas estava alinhado com os comportamentos 12 delineados no compromisso um mês antes e depois da assinatura. A pesquisa revelou grandes mudanças estatisticamente significativas no comportamento, incluindo verificação mais detalhada dos fatos, a relutância crescente para compartilhar mensagens emocionalmente carregadas, e um nova tendência para empurrar de volta contra amigos que compartilhavam informações.

Enquanto o auto-relato é uma metodologia bem aceita que emula a abordagem de estudos sobre códigos de honra e promessas de virgindade, está sujeito ao viés potencial de assuntos que relatam mudanças desejáveis ​​- como comportamentos mais verdadeiros - independentemente de essas mudanças estarem presentes.

Então em um segundo estudo obtivemos permissão dos participantes para observar o compartilhamento real do Facebook. Examinamos as primeiras postagens relevantes ao 10 um mês depois que assumiram o compromisso e classificaram a qualidade das informações compartilhadas, incluindo os links, para determinar com que grau de proximidade suas posturas correspondiam aos comportamentos do compromisso. Em seguida, analisamos os primeiros posts relevantes para 10 11 meses antes deles assumirem a promessa e os classificamos. Mais uma vez, encontramos grandes mudanças estatisticamente significativas na adesão dos candidatos a 12, tais como menos posts contendo desinformação e incluindo mais fontes.

Esclarecendo 'verdade'

A razão pela qual o penhor funciona, acredito, é porque substitui o conceito difuso de "verdade", que as pessoas podem interpretar de maneira diferente, com comportamentos claramente observáveis, como checar factos antes de compartilhar, diferenciar as opiniões dos fatos e citando fontes.

A ConversaçãoO compromisso que desenvolvemos é apenas uma parte de um esforço maior para combater a desinformação. Em última análise, isso mostra que existem ferramentas simples e podem ser usadas pelo Facebook e outras empresas de mídia social para combater o ataque de desinformação que as pessoas enfrentam on-line, sem recorrer à censura.

Sobre o autor

Gleb Tsipursky, professor assistente de História da Ciência Comportamental, A Universidade Estadual de Ohio

Este artigo foi originalmente publicado em A Conversação. Leia o artigo original.

Livros deste Autor

{amazonWS: searchindex = Livros; palavras-chave = Gleb Tsipursky; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

siga InnerSelf on

facebook-icontwitter-iconrss-icon

Receba as últimas por e-mail

{Emailcloak = off}