A proteção de dados pessoais é um assunto em evidência, muito em função da iminente entrada em vigor da Lei Geral de Proteção de Dados (LGPD), em agosto de 2020. O assunto torna-se relevante, também, devido ao nível tecnológico em que se encontra o mundo atualmente.

Hoje, a grande maioria das pessoas acorda com o despertador do celular. Poucas ainda têm o relógio despertador tradicional. Essas mesmas pessoas, em um evento, dificilmente prestam atenção integralmente na exposição do palestrante. Antes mesmo de a apresentação chegar na metade, a maior parte já fazendo alguma outra coisa no celular.

Há que se entender que essa é a forma como as pessoas se comportam hoje. Entretanto, é preciso haver cuidado com certas atitudes.

Por exemplo, ao baixar um simples aplicativo de lanterna no smartphone, são solicitados dados como localização, fotos do celular, câmera e informações de conexão wi-fi. Poucas pessoas se perguntam por que o acesso a essas informações são necessárias para usar uma lanterna. Para que é preciso haver essa coleta massiva de dados pessoais?

Uma outra situação comum é estar em uma conversa no WhatsApp para combinar o restaurante em que se vai almoçar e, assim que uma pessoa sugere o nome de um restaurante, em poucos minutos chega na caixa de e-mail uma mensagem promocional do restaurante citado.

A conclusão possível, por meio da análise dessas duas situações, é a de que existe quem possua o interesse de monitorar e há quem realmente monitora todas as atividades de uma pessoa em ambiente online. Algumas vezes, com a própria permissão da pessoa, sem que ela se dê conta disso e pense que vai, apenas, usar a lanterna.

As informações são capturadas a todo momento. O que pode ser muito perigoso ao se imaginar um mundo completamente automatizado.

A Lei de Proteção de Dados e a automatização

O receio exposto acima também se relaciona com a automação das decisões judiciais. Em um mundo em que toda decisão for automatizada e tomada com base na captura online de informações – que os titulares nem sabem ou se dão conta de que estão sendo monitoradas -, como compatibilizar isso com a proteção das informações pessoais?

Pouco se pensa – ou pouca importância é dada a essas questões – quando se vê iniciativas como a do score de crédito. Para ter uma solicitação de crédito atendida, primeiro é analisada a nota pessoal. De acordo com a avaliação, é determinado valor e a taxa de juros.

Como acontece esse processo decisório, talvez somente quem tenha desenvolvido o sistema saiba. Isso significa que dificilmente as variáveis observadas para definir o valor e os juros são reveladas à pessoa que solicitou o crédito.

Sendo assim, percebe-se que as decisões automatizadas fazem parte tanto das questões cotidianas quanto das situações judiciais. Seguem alguns exemplos.

1. Cálculo de pena

É um sistema aplicado nos EUA para o cálculo de pena, feito logo após uma sentença penal condenatória. Para ser calculado o período de reclusão, são considerados vários fatores. Até os sociais, como raça, etnia, nível de emprego, local em que reside, entre outras.

2. Sistema de avaliação

Na China, informações como nível de escolaridade do cidadão, situação socioeconômica, antecedentes criminais, atividades nas redes sociais, local de moradia, entre outros dados coletados pela internet, são levados em consideração para conceder às pessoas uma nota de avaliação.

É algo semelhante ao que acontece em um episódio da série Black Mirror. Nele, uma mulher vive em uma sociedade em que tudo o que ela quer conquistar, depende da avaliação que ela possui. Assim, para poder mudar-se para outro bairro, a condição é ela elevar a nota que detém.

O sistema de crédito social chinês avalia as pessoas e as classifica em um ranking. Dependendo da sua colocação, elas são ou não selecionadas para entrevistas de emprego, obter empréstimos bancários ou  bilhetes de avião e outros transportes. Como consequência de uma pontuação baixa, alguns chineses podem não ter acesso a certos serviços por até um ano.  A intenção do governo é o de que o sistema opere em 2020.

3. Publicidade direcionada

O maior exemplo de uso da publicidade direcionada é o do Grupo Pão de Açúcar. Toda vez que um cliente faz uma compra e uma informação sobre ele é registrada, como o CPF, o sistema do grupo identifica quais itens constam em suas compras habituais. Com base nesses registros, são gerados descontos exclusivos para aquele cliente.

Portanto, a estratégia do Pão de Açúcar é direcionar o marketing de acordo com o gosto do usuário. Apenas é necessário o cliente conceder suas informações para tonar possível identificar os seus padrões de comportamento de compras. Com isso, há redução no custo de publicidade e maior assertividade.

4. Aplicativos e redes sociais

As redes sociais têm muita influencia no comportamento dos usuários, de forma imperceptível, até. Não há como saber, exatamente, porque os algoritmos de uma rede como o Facebook, por exemplo, gera um determinado feed de notícias, diferente para cada usuário.

A justificativa mais comum é a de que a disponibilização do conteúdo é feita com base nas curtidas, compartilhamentos e comentários de cada pessoa na rede, ou seja, de acordo com o comportamento registrado pela rede social.

De fato, a falta de transparência pode tornar ainda mais complexo o debate acerca da proteção de dados, das decisões automatizadas e do direito à revisão.

Afinal, como explicar para o usuário porque as coisas são como são? Especialmente em tempos de Lei Geral de Proteção de Dados, que também trata de questões relacionadas?

Em um de seus artigos, a LGPD fala sobre o direito à revisão quando alguém é submetido a uma decisão automatizada. Contudo, não determina que essa revisão tenha de ser feita por um ser humano.

Isso significa que uma pessoa que solicita um empréstimo bancário e tem liberada uma quantia determinada, com uma taxa de juros específica, ao pedir que os valores sejam reavaliados, terá a solicitação atendida novamente pelo sistema, ou seja, pelos algoritmos.

Portanto, as dúvidas que ficam são:

  1. Basta dar o direito à revisão se não forem explicados para o usuário os motivos que culminaram na decisão em questão?
  2. Sem que haja a possibilidade de alterar a decisão automatizada, vale de alguma maneira ter o direito à revisão?
  3. Não seria melhor informar a pessoa interessada sobre quais dados serão usados em uma decisão sobre um empréstimo, por exemplo, e perguntar a ela se concorda com esses dados ou se quer alterar alguma das informações registradas?
  4. Essa pessoa não deveria ter o direito de solicitar uma revisão humana após a decisão automatizada?

Conclusão

Sistemas de decisões automatizadas, mas que sejam explicáveis às pessoas, são o grande desafio do uso da tecnologia na advocacia. Outro é evitar que um sistema seja desenvolvido com vieses. Afinal, eles são feitos por pessoas. Então, a partir do momento em que um programador pensar algo diferente e incutir esse pensamento no sistema que desenvolve, ele pode ser enviesado e decidir algo que não seja politicamente correto.

Logo, cabe a profissionais de advocacia aliar a tecnologia ao Direito e pensar estratégias jurídicas para conseguir cumprir o que estabelece a Lei Geral de Proteção de Dados, mas sem excluir a inovação.