Como Uber e outras plataformas digitais podem nos enganar usando a ciência comportamental Sua localização não é tudo que sabe. Foto AP / Mary Altaffer

O modelo de negócios da Uber é incrivelmente simples: é uma plataforma que facilita o intercâmbio entre as pessoas. E o Uber tem sido incrivelmente bem sucedido nisso, quase eliminando os custos de transação of fazendo negócios em tudo, desde transportar pessoas pela cidade até entregar comida.

Se você usa o Uber - ou talvez mesmo se você não - Ele conhece um tesouro de dados sobre você, incluindo sua localização, sexo, histórico de gastos, contatos, nível da bateria do telefone e até mesmo se você está a caminho de casa de uma noite. Em breve poderá saber se você está bêbado ou não.

Embora isso seja assustador o suficiente, combine todos esses dados com Perícia do Uber em analisá-lo através da lente de Ciência comportamental e você tem um potencial perigoso para explorar os usuários em busca de lucro.

Uber dificilmente está sozinho. Nossa pesquisa mostra As maiores plataformas digitais - Airbnb, Facebook, eBay e outras - estão coletando tantos dados sobre como vivemos, que eles já têm a capacidade de manipular seus usuários em grande escala. Eles podem prever o comportamento e influenciar nossas decisões sobre onde clicar, compartilhar e gastar.

Embora a maioria das plataformas ainda não esteja usando todos esses recursos, a manipulação por meio de técnicas de psicologia comportamental pode ocorrer silenciosamente e deixar pouco rastro. Se não estabelecermos as regras da estrada agora, será muito mais difícil detectar e parar mais tarde.


innerself assinar gráfico


'Arquitetura de escolha'

Uma plataforma pode ser qualquer espaço que facilite transações entre compradores e vendedores. Exemplos tradicionais incluem mercados de pulga e pregões.

Uma plataforma digital serve ao mesmo propósito, mas dá ao proprietário a capacidade de “mediar” seus usuários enquanto eles estão usando - e muitas vezes quando não estão. Com isso, queremos dizer que podemos observar e aprender uma incrível quantidade de informações sobre o comportamento do usuário para aperfeiçoar o que os cientistas comportamentais chamam de “arquiteturas de escolha, Elementos de design discretos destinados a influenciar o comportamento humano através da forma como as decisões são apresentadas.

Como Uber e outras plataformas digitais podem nos enganar usando a ciência comportamental O Uber sabe quando a bateria do seu telefone está ficando fraca. boyhey / Shutterstock.com

Por exemplo, Uber tem experimentado com seus drivers para determinar as estratégias mais eficazes para mantê-los na estrada o maior tempo possível. Essas estratégias incluem jogar em preconceitos cognitivos, como aversão à perda e superestimar eventos de baixa probabilidade, mesmo que um motorista mal esteja ganhando dinheiro suficiente para fazer valer a pena. Os motoristas acabam como apostadores em um cassino, e precisam jogar um pouco mais, apesar das probabilidades.

Uber não respondeu imediatamente a um pedido de comentário.

O Airbnb também faz experiências com seus usuários. Utilizou a ciência comportamental fazer com que os anfitriões reduzam suas tarifas e aceitem reservas sem fazer a triagem de convidados - o que cria riscos reais para os anfitriões, especialmente quando eles compartilham seu próprio apartamento.

Embora esses exemplos pareçam relativamente benignos, eles demonstram como as plataformas digitais são capazes de projetar discretamente sistemas para direcionar as ações dos usuários de maneiras potencialmente manipuladoras.

E conforme as plataformas crescem, elas só se tornam arquitetos de melhor escolha. Com o enorme influxo de dinheiro do investidor do IPO para financiar mais dados e Ciência comportamental, Uber poderia se mover em território perigosamente antiético - fácil de imaginar dadas as suas práticas passadas.

Por exemplo, se o aplicativo reconhecer que você está bêbado ou em uma vizinhança na qual você raramente viaja - e que seus dados mostram ter alta taxa de criminalidade -, ele pode cobrar uma taxa mais alta, sabendo que é improvável que você se recuse.

desafios legais

E nem tudo é especulação.

Em um esforço para enganar a polícia tentando investigar a empresa, a Uber realmente encontrou uma maneira de identificar os reguladores do governo tentando usar seu aplicativo e, em seguida, impediu-os de obter passeios.

Essa é uma razão pela qual legisladores e reguladores tenho discutido os papéis difíceis e inter-relacionados da ciência comportamental e da tecnologia por anos. E algumas empresas, Uber em particular, foram investigados por uma série de más práticas comerciais, desde discriminação para uso indevido de dados do usuário.

Mas a maior parte da manipulação que identificamos e nos preocupamos não é expressamente ilegal. E, como os reguladores geralmente não conseguem acompanhar o uso em constante evolução da tecnologia e da arquitetura de opções, é provável que isso continue assim.

Dada a ausência de guardas legais bem definidos e executáveis, a propensão das empresas de plataforma de explorar a ciência comportamental às custas dos usuários permanecerá em grande parte descontrolada.

Um código ético

Uma solução, a nosso ver, é estabelecer um código de ética para as empresas de plataforma seguirem. E se eles não o adotarem voluntariamente, investidores, funcionários e usuários poderiam exigir isso.

Desde meados do século 20, códigos escritos de conduta ética tem sido um grampo das empresas dos EUA. As profissões jurídica e médica confiei neles para milênios. E estudos sugerem eles são eficazes para incentivar o comportamento ético nas empresas.

Analisamos centenas de códigos de ética, incluindo aqueles destinados a empresas de tecnologia e computação. Com base em nossa pesquisa, pedimos que as plataformas digitais adotem cinco diretrizes éticas:

  1. Toda arquitetura de escolha empregada em uma plataforma deve ser totalmente transparente. As plataformas devem divulgar quando estão usando as ferramentas da ciência comportamental para influenciar o comportamento do usuário

  2. Os usuários devem poder fazer escolhas na plataforma com facilidade e liberdade, e os arquitetos escolhidos devem limitar intervenções comportamentais a lembretes ou prompts que sejam os menos prejudiciais à autonomia do usuário.

  3. As plataformas devem evitar “cutucar” os usuários de maneiras que explorem tomadas de decisão inconscientes e irracionais baseadas em impulsos e emoções. Nova pesquisa mostra que a arquitetura de escolha transparente pode funcionar tão bem

  4. As plataformas devem reconhecer o poder que possuem e tomar cuidado para não explorar os mercados que criaram, incluindo o abuso de assimetrias de informação entre eles e os usuários ou a oposição a regulamentações razoáveis.

  5. As plataformas devem evitar o uso de arquiteturas de escolha que desencorajam os usuários a agir de acordo com seus próprios interesses. Como economista comportamental ganhador do Prêmio Nobel Richard Thaler colocá-lo, devemos apenas "cutucar para o bem".

A grande tecnologia e a ciência comportamental estão agora integradas de maneira a tornar as empresas bem sucedidas, desde escovas de dentes que faça limpando seus dentes parece gratificante usando textos para incentivar as mães mais pobres a usar os cuidados de saúde.

Embora os resultados possam melhorar significativamente nossas vidas, também fica mais fácil do que nunca para as empresas manipularem os usuários para melhorar seus resultados.A Conversação

Sobre os Autores

Abbey Stemler, professor assistente de Direito Empresarial e Ética, Universidade de Indiana; Joshua E. Perry, professor associado de Direito Empresarial e Ética, Universidade de Indianae Todd Haugh, professor assistente de direito empresarial e ética, Universidade de Indiana

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.

Livros relacionados

at InnerSelf Market e Amazon