4 Maneiras Suas Pesquisas do Google e Mídias Sociais Afetam Suas Oportunidades na Vida

4 Maneiras Suas Pesquisas do Google e Mídias Sociais Afetam Suas Oportunidades na Vida
Shutterstock.

Quer você perceba ou consinta ou não, o Big Data pode afetar você e como você vive sua vida. Os dados que criamos quando usamos mídias sociais, navegando na internet e vestindo rastreadores de fitness são todos coletados, categorizados e usados por empresas e o Estado para criar perfis de nós. Esses perfis são usados ​​para direcionar anúncios de produtos e serviços para aqueles com maior probabilidade de comprá-los ou para informar decisões do governo.

Big data permite estados e empresas para acessar, combinar e analisar nossas informações e construir revelador - mas incompleto e potencialmente impreciso - perfis de nossas vidas. Eles fazem isso identificando correlações e padrões em dados sobre nós e pessoas com perfis semelhantes a nós, para fazer previsões sobre o que poderíamos fazer.

Mas só porque a análise de big data é baseada em algoritmos e estatísticas, não significa que eles são preciso, neutro ou inerentemente objetivo. E, embora os dados grandes possam fornecer insights sobre o comportamento do grupo, eles não são necessariamente uma maneira confiável de determinar o comportamento individual. Na verdade, esses métodos podem abrir a porta para a discriminação e ameaçar os direitos humanos das pessoas - Eles podem até estar trabalhando contra você. Aqui estão quatro exemplos em que a análise de big data pode levar à injustiça.

1. Calculando a pontuação de crédito

Big data pode ser usado para tomar decisões sobre elegibilidade de crédito, afetando se você é concedido uma hipoteca, ou quão alto o seu seguro de carro prêmios devem ser. Estas decisões podem ser informadas pelo seu postagens de mídia social e dados de outros aplicativos, que são usados ​​para indicar seu nível de risco ou confiabilidade.

Mas dados como seu histórico educacional ou onde você mora podem não ser relevantes ou confiáveis ​​para essas avaliações. Esse tipo de dado pode atuar como um proxy para a raça ou status socioeconômico, e usá-lo para tomar decisões sobre risco de crédito pode resultar em discriminação.

2. Pesquisas de emprego

Big data pode ser usado para determinar que vê um anúncio de emprego ou é pré-selecionado para uma entrevista. Anúncios de emprego podem ser direcionados a grupos etários específicos, como 25 para 36 anos de idade, o que exclui os trabalhadores mais jovens e mais velhos de ver certos postos de trabalho e apresenta um risco de discriminação por idade.

A automação também é usada para tornar a filtragem, classificação e classificação de candidatos mais eficiente. Mas este processo de seleção pode excluir pessoas com base em indicadores como o distância de seu trajeto. Os empregadores podem supor que aqueles com um deslocamento mais longo são menos propensos a permanecer em um emprego a longo prazo, mas isso pode realmente discriminar as pessoas que vivem mais longe do centro da cidade, devido à localização de moradias populares.


Receba as últimas notícias do InnerSelf


3. Decisões de liberdade condicional e fiança

Nos EUA e no Reino Unido, modelos de avaliação de risco de big data são usados ​​para ajudar as autoridades a decidir se as pessoas recebem parole ou fiançaou referido programas de reabilitação. Eles também podem ser usados ​​para avaliar quanto de risco o ofensor apresenta à sociedade, que é um fator que um juiz pode considerar ao decidir a duração de uma sentença.

Não está claro exatamente quais dados são usados ​​para ajudar a fazer essas avaliações, mas como policiamento digital aumenta o ritmo, é cada vez mais provável que esses programas incorporem informações de código aberto, como atividade medial social - se eles não o fizerem.

Essas avaliações podem não apenas olhar para o perfil de uma pessoa, mas também como ela se compara a outras. Algumas forças policiais historicamente super policiado comunidades minoritárias, levando a um número desproporcional de incidentes criminais relatados. Se esses dados forem inseridos em um algoritmo, ele distorcerá os modelos de avaliação de risco e resultará em discriminação que afeta diretamente o direito de uma pessoa à liberdade.

4. Vetar pedidos de visto

No ano passado, a Agência de Imigração e Alfândega dos Estados Unidos (ICE, na sigla em inglês) anunciou que queria introduzir umvetting extremo do visto" programa. Ele verificaria automática e continuamente as contas de mídia social, para avaliar se os candidatos teriam uma “contribuição positiva” para os Estados Unidos e se algum problema de segurança nacional poderia surgir.

Além de apresentar riscos à liberdade de pensamento, opinião, expressão e associação, havia riscos significativos de que esse programa discriminasse pessoas de certas nacionalidades ou religiões. Comentaristas caracterizou-a como uma “proibição muçulmana por algoritmo”.

O programa foi recentemente retirado, supostamente com base no fato de que “não havia software 'pronto para uso' que pudesse fornecer a qualidade do monitoramento que a agência queria”. Mas incluir essas metas em documentos de aquisições pode criar incentivos ruins para a indústria de tecnologia desenvolver programas que sejam discriminatórios por projeto.

A ConversaçãoNão há dúvidas de que a análise de big data funciona de maneira a afetar as oportunidades individuais da vida. Mas o falta de transparência sobre como os dados grandes são coletados, usados ​​e compartilhados dificultam que as pessoas saibam quais informações são usadas, como e quando. A análise de big data é simplesmente complicada demais para que os indivíduos possam proteger seus dados de uso inadequado. Em vez disso, os estados e as empresas devem criar - e seguir - regulamentos para garantir que o uso de big data não leve a discriminação.

Sobre os Autores

Lorna McGregor, Diretora do Centro de Direitos Humanos, PI e Co-Diretora, Grande Bolsa de Direitos Humanos, Big Data e Tecnologia do ESRC, Universidade de Essex; Daragh Murray, professor de Direito Internacional dos Direitos Humanos na Escola de Direito de Essex, Universidade de Essexe Vivian Ng, pesquisadora sênior em direitos humanos, Universidade de Essex

Este artigo foi originalmente publicado em A Conversação. Leia o artigo original.

Livros por estes Autores:

{amazonWS: searchindex = Livros; palavras-chave = Lorna McGregor; maxresults = 1}

{amazonWS: searchindex = Livros; palavras-chave = Daragh Murray; maxresults = 2}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

siga InnerSelf on

facebook-icontwitter-iconrss-icon

Receba as últimas por e-mail

{Emailcloak = off}