Por que a tecnologia coloca os direitos humanos em risco?
Spainter_vfx / Shutterstock.com

Filmes como 2001: Uma Odisséia no Espaço, Blade Runner e Terminator trouxe robôs desonestos e sistemas de computador para nossas telas de cinema. Mas hoje em dia, esses clássicos espetáculos de ficção científica não parecem tão distantes da realidade.

Cada vez mais vivemos, trabalhamos e jogamos com tecnologias computacionais autônomas e inteligentes. Esses sistemas incluem software e hardware com capacidade de raciocínio independente e tomada de decisão. Eles trabalham para nós no chão de fábrica; eles decidem se podemos obter uma hipoteca; eles rastreiam e medem nossos níveis de atividade e fitness; eles limpam o chão da nossa sala e cortam nossos gramados.

Sistemas autônomos e inteligentes têm o potencial de afetar quase todos os aspectos de nossas vidas sociais, econômicas, políticas e privadas, incluindo aspectos cotidianos mundanos. Muito disso parece inocente, mas há motivos para preocupação. O impacto das tecnologias computacionais em todo direito humano, do direito à vida ao direito à privacidade, liberdade de expressão e direitos sociais e econômicos. Então, como podemos defender os direitos humanos em um cenário tecnológico cada vez mais moldado pela robótica e inteligência artificial (IA)?

AI e direitos humanos

Primeiro, há um medo real de que o aumento da autonomia das máquinas possa prejudicar o status dos seres humanos. Esse medo é agravado pela falta de clareza sobre quem será responsabilizado, seja em um sentido legal ou moral, quando as máquinas inteligentes causam danos. Mas não tenho certeza de que o foco de nossa preocupação com os direitos humanos deva realmente robôs desonestos, como parece no presente. Em vez disso, devemos nos preocupar com o uso humano de robôs e inteligência artificial e sua implantação em contextos políticos, militares, econômicos e sociais injustos e desiguais.

Essa preocupação é particularmente pertinente em relação aos sistemas de armas letais autônomas (LAWS), frequentemente descritos como robôs assassinos. Como nós avançar para uma corrida armamentista de IA, acadêmicos e ativistas de direitos humanos, como Christof Heyns, o ex-relator especial da ONU sobre execuções extrajudiciais, sumárias ou arbitrárias, temem que o uso de LAWS ponha sistemas robóticos autônomos encarregado das decisões de vida e morte, com controle humano limitado ou nenhum.


innerself assinar gráfico


A IA também revoluciona a ligação entre as práticas de guerra e vigilância. Grupos como o Comitê Internacional para Controle de Armas Robóticas (ICRAC) recentemente expressaram sua oposição à participação do Google em Projeto Maven, um programa militar que usa aprendizado de máquina para analisar imagens de vigilância de drones, que podem ser usadas para execuções extrajudiciais. ICRAC apelado ao Google para garantir que os dados coletados por seus usuários nunca sejam usados ​​para fins militares, participando de protestos de funcionários do Google sobre o envolvimento da empresa no projeto. Google anunciou recentemente que não vai estar renovando seu contrato.

No 2013, a extensão das práticas de vigilância foi destacada pelo Edward Snowden revelações. Isso nos ensinou muito sobre a ameaça ao direito à privacidade e ao compartilhamento de dados entre serviços de inteligência, agências governamentais e corporações privadas. A recente controvérsia em torno Cambridge AnalyticaA coleta de dados pessoais por meio do uso de plataformas de mídia social como o Facebook continua a causar séria apreensão, desta vez sobre manipulação e interferência em eleições democráticas que prejudicam o direito à liberdade de expressão.

Enquanto isso, os analistas de dados críticos desafiam práticas discriminatórias associado com o que eles chamam de "problema dos brancos" da AI. Essa é a preocupação de que os sistemas de IA treinados em dados existentes repliquem os estereótipos raciais e de gênero existentes que perpetuam práticas discriminatórias em áreas como policiamento, decisões judiciais ou emprego.

AI pode replicar e entrincheirar estereótipos.
AI pode replicar e entrincheirar estereótipos.
Ollyy / Shutterstock.com

Bots ambíguos

A potencial ameaça das tecnologias computacionais para os direitos humanos e para a segurança física, política e digital foi destacada em um estudo recentemente publicado sobre O Uso Malicioso da Inteligência Artificial. As preocupações expressas neste relatório da Universidade de Cambridge devem ser levadas a sério. Mas como devemos lidar com essas ameaças? Os direitos humanos estão prontos para a era da robótica e da IA?

Há esforços contínuos para atualizar os princípios de direitos humanos existentes para esta época. Estes incluem o Enquadramento da ONU e Princípios Orientadores sobre Empresas e Direitos Humanos, tenta escrever um Carta Magna para a era digital e o Instituto do Futuro da Vida Princípios da AI de Asilomar, que identificam diretrizes para pesquisa ética, adesão a valores e um compromisso com o desenvolvimento benéfico a longo prazo da IA.

Esses esforços são louváveis, mas não suficientes. Governos e agências governamentais, partidos políticos e corporações privadas, especialmente as principais empresas de tecnologia, devem se comprometer com os usos éticos da IA. Também precisamos de um controle legislativo efetivo e aplicável.

Quaisquer que sejam as novas medidas que introduzimos, é importante reconhecer que nossas vidas estão cada vez mais enredadas com máquinas autônomas e sistemas inteligentes. Esse emaranhamento aumenta o bem-estar humano em áreas como pesquisa e tratamento médico, em nosso sistema de transporte, em ambientes de assistência social e nos esforços para proteger o meio ambiente.

Mas em outras áreas, esse emaranhamento gera perspectivas preocupantes. As tecnologias computacionais são usadas para observar e rastrear nossas ações e comportamentos, rastrear nossos passos, nossa localização, nossa saúde, nossos gostos e nossas amizades. Esses sistemas moldam o comportamento humano e nos empurram para práticas de autovigilância que reduzem nossa liberdade e minam as idéias e ideais dos direitos humanos.

A ConversaçãoE aqui reside o ponto crucial: a capacidade de uso dual de tecnologias computacionais desfoca a linha entre práticas benéficas e maliciosas. Além disso, as tecnologias computacionais estão profundamente implicadas nas relações de poder desiguais entre cidadãos individuais, o estado e suas agências e corporações privadas. Se desequilibrados de sistemas nacionais e internacionais eficazes de freios e contrapesos, eles representam uma ameaça real e preocupante aos nossos direitos humanos.

Sobre o autor

Birgit Schippers, Pesquisador Visitante, Instituto do Senador George J Mitchell para a Paz Global, Segurança e Justiça, Universidade Queen de Belfast

Este artigo foi originalmente publicado em A Conversação. Leia o artigo original.

Livros relacionados

{amazonWS: searchindex = Books; Birgit Schippers = innerself "target =" _ blank "rel =" nofollow noopener "> InnerSelf Market e Amazon