A nova divisão digital está entre as pessoas que optaram pelos algoritmos e as pessoas que não o fazem Você sabe o que acontece quando você compartilha seus dados? mtkang / shutterstock.com

Todos os aspectos da vida podem ser guiados por algoritmos de inteligência artificial - desde a escolha do caminho a seguir para o deslocamento matutino, até a decisão de quem levar uma data, até questões legais e judiciais complexas, como o policiamento preditivo.

As grandes empresas de tecnologia, como o Google e o Facebook, usam a inteligência artificial para obter insights sobre o enorme acervo de dados detalhados de clientes. Isso permite que elas monetizem as preferências coletivas dos usuários por meio de práticas como microssegmentação, uma estratégia usada pelos anunciantes para segmentar grupos específicos de usuários.

Em paralelo, muitas pessoas confiam mais em plataformas e algoritmos do que em seus próprios governos e na sociedade civil. Um estudo do 2018 de outubro sugeriu que as pessoas demonstram “apreciação do algoritmo”, Na medida em que eles confiariam mais em conselhos quando pensam que é de um algoritmo do que de um humano.

No passado, especialistas em tecnologia se preocuparam com "fosso digital" entre aqueles que podiam acessar computadores e a internet e aqueles que não podiam. As famílias com menos acesso a tecnologias digitais estão em desvantagem na sua capacidade de ganhar dinheiro e acumular habilidades.


innerself assinar gráfico


Mas, à medida que os dispositivos digitais proliferam, a divisão não é mais apenas sobre acesso. Como as pessoas lidam com a sobrecarga de informações e a multiplicidade de decisões algorítmicas que permeiam todos os aspectos de suas vidas?

Os usuários mais experientes estão navegando para longe dos dispositivos e se conscientizando sobre como os algoritmos afetam suas vidas. Enquanto isso, os consumidores que têm menos informações estão confiando ainda mais em algoritmos para orientar suas decisões.

Você deve ficar conectado - ou desconectar? pryzmat / shutterstock.com

O molho secreto por trás da inteligência artificial

A principal razão para a nova divisão digital, na minha opinião como alguém que estuda sistemas de informação, é que tão poucas pessoas entendem como funcionam os algoritmos. Para a maioria dos usuários, os algoritmos são vistos como uma caixa preta.

Algoritmos AI pegam dados, ajustam-nos a um modelo matemático e fazem uma previsão, variando de quais músicas você pode gostar para quantos anos alguém deveria passar na cadeia. Esses modelos são desenvolvidos e ajustados com base em dados passados ​​e no sucesso de modelos anteriores. A maioria das pessoas - até mesmo os próprios projetistas de algoritmos - não sabem realmente o que acontece dentro do modelo.

Pesquisadores há muito tempo preocupado sobre equidade algorítmica. Por exemplo, a ferramenta de recrutamento da Amazon baseada em IA acabou demitir candidatos do sexo feminino. O sistema da Amazon estava extraindo seletivamente palavras de gênero implicitamente - palavras que os homens são mais propensos a usar na fala cotidiana, como "executado" e "capturado".

Outros estudos demonstraram que os algoritmos judiciais são racistas, condenando os réus negros por mais tempo do que outros.

Como parte do recém-aprovado Regulamento Geral de Proteção de Dados na União Européia, as pessoas “Direito à explicação” dos critérios que os algoritmos usam em suas decisões. Esta legislação trata o processo de tomada de decisão algorítmica como um livro de receitas. O pensamento é que, se você entender a receita, você pode entender como o algoritmo afeta sua vida.

Enquanto isso, alguns pesquisadores de IA têm pressionado por algoritmos justo, responsável e transparente, assim como interpretável, o que significa que eles devem chegar a suas decisões através de processos que os seres humanos possam entender e confiar.

Qual o efeito da transparência? Em um estudo, os alunos foram classificados por um algoritmo e ofereceram diferentes níveis de explicação sobre como as pontuações de seus colegas foram ajustadas para chegar à nota final. Os alunos com explicações mais transparentes realmente confiavam no algoritmo menos. Isso, novamente, sugere uma divisão digital: a consciência algorítmica não leva a mais confiança no sistema.

Mas a transparência não é uma panacéia. Mesmo quando o processo geral de um algoritmo é esboçado, os detalhes ainda podem ser muito complexos para os usuários compreenderem. A transparência ajudará apenas os usuários que são sofisticados o suficiente para entender as complexidades dos algoritmos.

Por exemplo, em 2014, Ben Bernanke, ex-presidente do Federal Reserve, foi inicialmente negou um refinanciamento hipotecário por um sistema automatizado. A maioria dos indivíduos que estão se candidatando a um refinanciamento de hipoteca não entenderia como os algoritmos poderiam determinar sua credibilidade.

O que o algoritmo diz para fazer hoje? Maria Savenko / shutterstock.com

Optando pelo novo ecossistema de informações

Embora os algoritmos influenciem muito a vida das pessoas, apenas uma pequena fração dos participantes é sofisticada o suficiente para se envolver totalmente como os algoritmos afetam sua vida.

Não há muitas estatísticas sobre o número de pessoas com conhecimento de algoritmo. Estudos encontraram evidências de ansiedade algorítmica, levando a um profundo desequilíbrio de poder entre plataformas que implementam algoritmos e os usuários que dependem deles.

Um estudo do uso do Facebook descobriram que quando os participantes foram informados sobre o algoritmo do Facebook para curar feeds de notícias, cerca de 83% dos participantes modificaram seu comportamento para tentar tirar vantagem do algoritmo, enquanto cerca de 10% diminuiu seu uso do Facebook.

Um relatório do 2018 de novembro do Pew Research Center descobriu que uma ampla maioria do público tinha preocupações significativas sobre o uso de algoritmos para usos específicos. Descobriu-se que 66% achava que não seria justo para os algoritmos calcular as pontuações financeiras pessoais, enquanto 57% disse o mesmo sobre o rastreamento automatizado de currículos.

Uma pequena fração de indivíduos exercita algum controle sobre como os algoritmos usam seus dados pessoais. Por exemplo, a plataforma Hu-Manity permite aos usuários uma opção para controlar quanto de seus dados são coletados. Enciclopédia on-line Everipedia oferece aos usuários a capacidade de ser uma parte interessada no processo de curadoria, o que significa que os usuários também podem controlar como as informações são agregadas e apresentadas a eles.

No entanto, a grande maioria das plataformas não oferece essa flexibilidade para seus usuários finais ou o direito de escolher como o algoritmo usa suas preferências na organização de seu feed de notícias ou na recomendação de seu conteúdo. Se houver opções, os usuários podem não saber sobre elas. Sobre 74% dos usuários do Facebook disseram em uma pesquisa que eles estavam sem saber como a plataforma caracteriza seus interesses pessoais.

A meu ver, a nova alfabetização digital não está usando um computador ou estando na internet, mas entendendo e avaliando as conseqüências de um estilo de vida sempre conectado.

Este estilo de vida tem um impacto significativo sobre como as pessoas interagem com os outros; em sua capacidade de preste atenção às novas informações; e em a complexidade de seus processos decisórios.

A crescente ansiedade algorítmica também pode ser espelhada por mudanças paralelas na economia. Um pequeno grupo de indivíduos capturando os ganhos da automação, enquanto muitos trabalhadores estão em um posição precária.

Optar pela curadoria algorítmica é um luxo - e poderia um dia ser um símbolo da riqueza disponível apenas para alguns poucos. A questão é, então, quais serão os danos mensuráveis ​​para aqueles que estão do lado errado da divisão digital.

Sobre o autor

Anjana Susarla, Professora Associada de Sistemas de Informação, Michigan State University

Este artigo foi republicado a partir de A Conversação sob uma licença Creative Commons. Leia o artigo original.

Livros relacionados

at InnerSelf Market e Amazon