Como as pessoas tomam decisões em grupos?

Como as pessoas tomam decisões em grupos

Usando uma estrutura matemática com raízes na inteligência artificial e robótica, os pesquisadores descobriram o processo de como as pessoas tomam decisões em grupos.

Os pesquisadores também descobriram que podiam prever a escolha de uma pessoa com mais frequência do que os métodos descritivos mais tradicionais.

Em grandes grupos de membros essencialmente anônimos, as pessoas fazem escolhas com base em um modelo da “mente do grupo” e em uma simulação em evolução de como uma escolha afetará essa mente teorizada, segundo o estudo.

"Nossos resultados são particularmente interessantes à luz do crescente papel das mídias sociais em ditar como os seres humanos se comportam como membros de grupos específicos", diz o autor sênior Rajesh Rao, professor da Escola de Ciência da Computação e Engenharia Paul G. Allen da Universidade de Washington. e co-diretor do Centro de Neurotecnologia.

"Podemos quase ter um vislumbre da mente humana e analisar seu mecanismo computacional subjacente para tomar decisões coletivas".

Nossas ações e o grupo

"Nos fóruns on-line e nos grupos de mídia social, as ações combinadas dos membros anônimos do grupo podem influenciar sua próxima ação e, inversamente, sua própria ação pode mudar o comportamento futuro de todo o grupo", diz Rao.

Os pesquisadores queriam descobrir quais mecanismos estão em jogo em ambientes como esses.


Receba as últimas notícias do InnerSelf


No artigo, eles explicam que o comportamento humano depende de previsões de estados futuros do meio ambiente - um melhor palpite sobre o que pode acontecer - e o grau de incerteza sobre esse ambiente aumenta "drasticamente" em ambientes sociais. Para prever o que pode acontecer quando outro humano está envolvido, uma pessoa cria um modelo da mente do outro, chamado de teoria da mente, e depois usa esse modelo para simular como as próprias ações afetarão a outra "mente".

Embora esse ato funcione bem para interações individuais, a capacidade de modelar mentes individuais em um grande grupo é muito mais difícil. A nova pesquisa sugere que os humanos criam um modelo médio de uma "mente" representativa do grupo, mesmo quando as identidades dos outros não são conhecidas.

Para investigar as complexidades que surgem na tomada de decisões em grupo, os pesquisadores se concentraram na "tarefa do dilema do voluntário", em que alguns indivíduos suportam alguns custos para beneficiar todo o grupo. Exemplos da tarefa incluem guardar dever, doação de sangue e avançar para impedir um ato de violência em um local público, explicam eles no jornal.

Prevendo decisões

Para imitar essa situação e estudar as respostas comportamentais e cerebrais, os pesquisadores colocaram os sujeitos em uma ressonância magnética, um por um, e os fizeram jogar um jogo. No jogo, chamado de jogo de bens públicos, a contribuição do sujeito para um pote de dinheiro comunitário influencia os outros e determina o que todos no grupo recebem de volta. Um sujeito pode decidir contribuir com um dólar ou "cavalgar" - isto é, não contribuir para receber a recompensa na esperança de que outros contribuam para o pote.

Se o total de contribuições exceder um valor predeterminado, todos receberão dois dólares de volta. Os sujeitos jogaram dezenas de rodadas com outros que nunca conheceram. Sem o conhecimento do assunto, um computador imitando jogadores humanos anteriores simulou os outros.

"Podemos quase vislumbrar a mente humana e analisar seu mecanismo computacional subjacente para tomar decisões coletivas", diz a principal autora Koosha Khalvati, uma estudante de doutorado na Allen School. “Ao interagir com um grande número de pessoas, descobrimos que os humanos tentam prever futuras interações em grupo com base em um modelo da intenção de um membro médio do grupo. Importante, eles também sabem que suas próprias ações podem influenciar o grupo. Por exemplo, eles sabem que, embora sejam anônimos para os outros, seu comportamento egoísta diminuiria a colaboração no grupo em futuras interações e possivelmente traria resultados indesejados. ”

Em seu estudo, os pesquisadores foram capazes de atribuir variáveis ​​matemáticas a essas ações e criar seus próprios modelos de computador para prever quais decisões a pessoa poderia tomar durante o jogo. Eles descobriram que seu modelo prediz o comportamento humano significativamente melhor do que os modelos de aprendizado por reforço - isto é, quando um jogador aprende a contribuir com base no desempenho da rodada anterior ou não, independentemente de outros jogadores - e em abordagens descritivas mais tradicionais.

Dado que o modelo fornece uma explicação quantitativa para o comportamento humano, Rao se pergunta se pode ser útil ao construir máquinas que interagir com humanos.

“Nos cenários em que uma máquina ou software está interagindo com grandes grupos de pessoas, nossos resultados podem ser algumas lições para IA," ele diz. “Uma máquina que simula a 'mente de um grupo' e simula como suas ações afetam o grupo pode levar a uma IA mais amigável para o ser humano, cujo comportamento está melhor alinhado com os valores humanos.”

Os resultados aparecem em Os avanços da ciência.

Sobre os Autores

Autor sênior: Rajesh Rao, professor da Escola Paul G. Allen de Ciência da Computação e Engenharia da Universidade de Washington e co-diretor do Centro de Neurotecnologia. Autor principal: Koosha Khalvati, estudante de doutorado na Allen School.

Co-autores adicionais são da UC Davis; Universidade de Nova York; e o Instituto de Ciências Cognitivas Marc Jeannerod. O Instituto Nacional de Saúde Mental, a National Science Foundation e a Templeton World Charity Foundation financiaram o trabalho.

Estudo original

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

siga InnerSelf on

facebook-icontwitter-iconrss-icon

Receba as últimas por e-mail

{Emailcloak = off}