Como a privacidade diferencial pode proteger seus dados? Marco Verch / Flickr, CC BY 

As empresas de tecnologia podem usar a privacidade diferenciada para coletar e compartilhar dados agregados sobre os hábitos do usuário, mantendo a privacidade individual.

Não é segredo que grandes empresas de tecnologia como Facebook, Google, Apple e Amazon estão cada vez mais se infiltrando em nossas interações pessoais e sociais para coletar grandes quantidades de dados sobre nós todos os dias. Ao mesmo tempo, as violações de privacidade no ciberespaço fazem regularmente notícias de primeira página.

Então, como a privacidade deve ser protegida em um mundo onde os dados são coletados e compartilhados com velocidade e engenhosidade crescentes?

A privacidade diferencial é um novo modelo de segurança cibernética que os proponentes alegam poder proteger os dados pessoais muito melhor do que os métodos tradicionais.

A matemática em que se baseia foi desenvolvida 10 anos atrás, e o método foi adotado pela Apple e Google nos últimos anos.


innerself assinar gráfico


O que é privacidade diferencial?

A privacidade diferencial possibilita que as empresas de tecnologia coletem e compartilhem informações agregadas sobre os hábitos do usuário, mantendo a privacidade de usuários individuais.

Por exemplo, digamos que você queira mostrar as rotas mais populares que as pessoas passam caminhando pelo parque. Você rastreia as rotas das pessoas do 100 que regularmente andam pelo parque, e se elas andam no caminho ou pela grama.

Mas, em vez de compartilhar as pessoas específicas que usam cada rota, você compartilha os dados agregados coletados ao longo do tempo. As pessoas que visualizam os seus resultados podem saber que 60 de pessoas 100 preferem ter um atalho através da grama, mas não quais pessoas 60.

Por que precisamos do RBI?

Muitos dos governos do mundo têm políticas rígidas sobre como as empresas de tecnologia coletam e compartilham dados de usuários. As empresas que não seguem as regras podem enfrentar multas enormes. UMA Tribunal belga recentemente ordenou Facebook para parar de coletar dados sobre os hábitos de navegação dos usuários em sites externos, ou enfrentar multas de € 250,000 por dia.

Para muitas empresas, especialmente multinacionais que operam em diferentes jurisdições, isso as deixa em uma posição delicada quando se trata da coleta e uso de dados de clientes.

Por um lado, essas empresas precisam dos dados dos usuários para fornecer serviços de alta qualidade que beneficiam os usuários, como recomendações personalizadas. Por outro lado, eles podem enfrentar acusações se coletarem dados demais do usuário ou se tentarem transferir dados de uma jurisdição para outra.

As ferramentas tradicionais de preservação da privacidade, como a criptografia, não podem resolver esse dilema, uma vez que impede que as empresas de tecnologia acessem os dados. E o anonimato reduz o valor dos dados - um algoritmo não pode servir recomendações personalizadas se ele não souber quais são seus hábitos.

Como funciona o Tech & Data Studio:

Vamos continuar o exemplo de percursos pedestres através de um parque. Se você conhece as identidades daqueles incluídos no estudo, mas não sabe quem tomou qual rota, então você pode assumir que a privacidade está protegida. Mas isso pode não ser o caso.

Digamos que alguém que esteja visualizando seus dados queira verificar se Bob prefere caminhar pela grama ou pelo caminho. Eles obtiveram informações básicas sobre as outras pessoas 99 no estudo, que lhes diz que as pessoas 40 preferem andar no caminho e 59 preferem andar pela grama. Portanto, eles podem deduzir que Bob, que é a pessoa 100th no banco de dados, é a pessoa 60th que prefere caminhar pela grama.

Esse tipo de ataque é chamado de ataque diferenciado, e é muito difícil se defender, pois você não pode controlar quanto conhecimento de fundo alguém pode obter. A privacidade diferencial visa defender-se contra esse tipo de ataque.

Alguém deduzindo o seu percurso a pé pode não parecer muito sério, mas se substituir os percursos pedestres pelos resultados do teste VIH, poderá perceber que existe potencial para uma invasão grave da privacidade.

O modelo de privacidade diferencial garante que, mesmo que alguém tenha informações completas sobre 99 de pessoas 100 em um conjunto de dados, elas ainda não poderão deduzir as informações sobre a pessoa final.

O principal mecanismo para conseguir isso é adicionar ruído aleatório aos dados agregados. No exemplo do caminho, você pode dizer que o número de pessoas que preferem atravessar a grama é 59 ou 61, em vez do número exato de 60. O número impreciso pode preservar a privacidade de Bob, mas terá pouco impacto no padrão: cerca de 60% pessoas preferem usar um atalho.

O barulho é cuidadosamente projetado. Quando a Apple empregou privacidade diferencial no iOS 10, adicionou ruído às entradas individuais do usuário. Isso significa que ele pode rastrear, por exemplo, os emoticons usados ​​com mais frequência, mas o uso de emoji de qualquer usuário individual é mascarado.

Cynthia Dwork, a inventor da privacidade diferencial, propôs provas matemáticas maravilhosas sobre quanto ruído é suficiente para alcançar a exigência de privacidade diferencial.

Quais são as suas aplicações práticas?

A privacidade diferencial pode ser aplicada a tudo, desde sistemas de recomendação a serviços baseados em localização e redes sociais. maçã usa privacidade diferencial para coletar insights de uso anônimo de dispositivos como iPhones, iPads e Macs. O método é de fácil utilização e legalmente no claro.

A privacidade diferencial também permitiria que uma empresa como a Amazon acessasse suas preferências de compras personalizadas, ocultando informações confidenciais sobre sua lista de compras históricas. O Facebook poderia usá-lo para coletar dados comportamentais para publicidade direcionada, sem violar as políticas de privacidade de um país.

Como poderia ser usado no futuro?

Diferentes países têm políticas de privacidade variadas, e documentos sensíveis precisam ser verificados manualmente antes de passar de um país para outro. Isso é demorado e caro.

Recentemente, uma equipe de Universidade Deakin desenvolveu tecnologia de privacidade diferencial para automatizar processos de privacidade em comunidades de compartilhamento de nuvem entre países.

A ConversaçãoEles propõem o uso de fórmulas matemáticas para modelar as leis de privacidade de cada país que poderiam ser traduzidas para “middleware” (software) para garantir que os dados estejam de acordo. Empregar privacidade diferenciada dessa maneira poderia proteger a privacidade dos usuários e resolver a dor de cabeça do compartilhamento de dados para empresas de tecnologia.

Sobre o autor

Tianqing Zhu, professor de segurança cibernética, Faculdade de Ciências, Engenharia e Ambiente Construído, Universidade Deakin

Este artigo foi originalmente publicado em A Conversação. Leia o artigo original.

Livros relacionados

at InnerSelf Market e Amazon