top of page

Privacidade

A privacidade atualmente não é um bem e direito individual, mas sim um bem e direito coletivo. Se todos não ajudarem, ninguém terá privacidade.

AdobeStock_282006801.jpeg

O Princípio da Privacidade e Segurança (Privacy & Security) requer que a solução de IA respeite a privacidade das pessoas (por exemplo, confidencialidade de dados pessoais), em conformidade com as legislações aplicáveis em cada jurisdição e seja segura (por exemplo, os dados utilizados para treinar o modelo devem ser protegidos contra acessos indevidos). Com relação à segurança da informação, ver Cybersecurity.

Além dos aspectos regulatórios, a questão da privacidade tem um viés ético e filosófico - deve a privacidade ser considerada um direito individual, e assim gerenciada, ou tratada com um bem coletivo?  Hoje, com os modernos algoritmos utilizados em sistemas de inteligência artificial, as informações que alguns usuários concordam em tornar públicas (por exemplo, em redes sociais) podem permitir inferências sobre atributos e preferências de outros usuários que NÃO concordaram em divulgar suas informações. 

Um outro aspecto importante (e preocupante) da privacidade em tempos de inteligência artificial é a vigilância e monitoração em massa (através de câmeras de reconhecimento facial e outros métodos automatizados), seja por parte do setor público ou por empresas privadas. Selecionamos também algumas referências para os interessados neste tema.

Há também os aspectos técnicos de como proteger a privacidade de indivíduos cujos dados fazem parte de datasets utilizados por diferentes tipos de organizações (públicas e privadas). Ainda que os curadores destes dados (agentes de tratamento, segundo a LGPD) tornem públicos apenas dados agregados (média, mediana, etc.) sem divulgar dados privados individuais, e que certos atributos sensíveis dos indivíduos estejam anonimizados ou tenham sido omitidos, já está provado que a anonimização não é suficiente para assegurar a privacidade, em face de ataques de privacidade como os ataques de vinculação e os ataques de reconstrução. Há algumas abordagens para lidar com este problema, como a computação confidencial, o uso de dados sintéticos e o uso de privacidade diferencial,  

Imagem1.png

Privacidade como um bem (e dever) coletivo

2024-06-07_113840.png

Fonte da imagem: Privacy is a collective concern by Carissa Véliz

Um ponto um pouco perturbador e ainda não suficientemente bem compreendido em relação à proteção da privacidade (nos termos da GDPR e da LGPD por exemplo) é que quando se trata de inteligência artificial não é mais suficiente (embora continue sendo necessário) tratar a privacidade como um direito pessoal. Em vez disso, a privacidade precisa ser gerenciada como um bem público e um dever coletivo.


O motivo é capacidade cada vez maior de algoritmos em fazer predições não apenas sobre os usuários que consentiram no uso de seus dados pessoais, mas sobre todos os demais usuários, inclusive os que NÃO deram tal consentimento. Ou seja, em alguns contextos do uso da IA, a privacidade de todos os indivíduos pode ser comprometida, ainda que a maioria das pessoas não tenha dado consentimento para o processamento de seus dados pessoais.  Por exemplo:

  • Se um indivíduo em uma família concorda em divulgar seus dados genéticos (DNA), ou relacionados com doenças genéticas, a privacidade de outros membros da família será comprometida, dada a natureza hereditária do DNA, ainda que estes outros familiares ignorem ou mesmo não concordem que seus dados genéticos sejam tornados públicos.

  • Se um soldado está em missão militar em uma localização secreta, outros soldados poderão ser afetados se ele tornar pública sua localização.

  • Se um usuário qualquer concorda em "compartilhar seus contatos", ou faz isso inadvertidamente por não ter prestado atenção nos termos de um novo serviço que assinou na Internet, a privacidade de todos os seus contatos estará ameaçada

Seguem algumas referências sobre esta interessante perspectiva, que tem relação com o ativismo digital por parte de coletivos em favor da privacidade.

Ativismo digital na proteção da privacidade e outros direitos 

Um exemplo importante do ativismo digital é a luta pela privacidade. As grandes corporações de tecnologia (Big Techs) têm imenso poder, mas seus algoritmos precisam de dados - e isso sugere táticas de ativismo social em defesa da privacidade, como um complemento aos marcos regulatórios que também pressionam estas empresas como a Google a mudar seu comportamento.

AdobeStock_431587332.jpeg

Em 2020, o grupo holandês The Privacy Collective moveu uma ação coletiva milionária em nome de 10 milhões de indivíduos contra a Oracle e a Salesforce alegando que estas empresas estavam coletando e processando ilegalmente dados de cidadões holandeses, e compartilhando estas informações com outras empresas sem que os usuários tivessem dado consentimento para isso (no contexto da GDPR (General Data Protection Regulation). Entretanto, a justiça declarou as alegações como "inadmissíveis"

Se já sabemos que muitos serviços de Internet e mídias sociais capturam e utilizam nossos dados e traçam perfis com nossas preferências, por que continuamos assinando estes serviços e continuamos a utilizar estas plataformas? Bem, o problema é que mesmo sabendo dos riscos de privacidade é extremamente difícil não utilizar estes serviços. O opt-out (a opção pessoal pela não utilização) dos serviços das grandes empresas como Facebook, Google, Amazon, Microsoft Meta (Instagram, WhatsApp) e Apple é bastante difícil, como demonstrado no experimento de Kashmir Hill, em função do elevado nível de dependência tecnológica que já temos destes serviços (autenticação, localização, comunicação, agenda, calendário, músicas, pagamentos, compras, mapas e navegação etc.).

Para além das questões da privacidade há várias manifestações importantes do ativismo digital relacionadas com:

  • O combate ao assêdio e violência sexual como o movimento #MeToo e outros movimentos associados ao feminismo e direitos da população LGBTQ+

  • A luta contra  preconceitos e discriminação contra sugrupos sociais, como o movimento #BLACKLIVESMATTER

  • Há o importante ativismo digital voltado para defesa de causas ambientais (é preciso ser muito negacionista para ainda não acreditar no aquecimento global), e aqui quero destacar o movimento Fridays for Future (FFF),

  • Há o ativismo digital para direitos de deficientes, em um mundo de baixa acessibilidade.

  • Há o ativismo de cunho social e político, como o forum realizado em favor da causa Palestina.

Neste e em outro casos, além da manifestação direta dos ativistas por meio das redes sociais, estas também são utilizadas para organizar encontros e passeatas civis. 

2024-06-09_092238.png

Monitoramento e vigilância em massa

A privacidade também abrange as preocupações relacionadas com a vigilância e monitoramento de colaboradores por parte de empresas. Já existe tecnologia que permite que através do uso (consentido) de crachás eletrônicos a empresa possa monitorar tudo o que o funcionário diz e faz, além de sua localização.

 

Além disso há também a questão do reconhecimento facial em massa por parte do setor público (ou outras entidades), o que pode ter implicações moralmente questionáveis, além da questão da legalidade deste tipo de vigilância. Já em 2014 a representante de Direitos Humanos nas Nações Unidas (Navi Pillay) alertava sobre a "perturbadora falta de transparência" com a qual Governos estavam monitorando cidadãos, e inclusive "coagindo empresas privadas a fornecer acesso a dados de vigilância sobre indivíduos". 

2024-06-09_092736.png

Brad Smith (Microsoft)

Mar 31, 2020

Referências selecionadas: "Inteligência artificial e privacidade"

2024-06-09_095852.png

Henrique Moraes and Maria Previtali (IAPP)

17 Jan. 2024

Gai Sher and Ariela Benchlouch

October 31, 2023

Katharina Koerner (IAPP)

Jan 11, 2022

Veja também

Sobre a Privacidade Diferencial
Fake News e Democracia
Cybersecurity e IA - ataque e defesa
Princípios para uma IA ética e responsável
bottom of page