Juristas e tecnologias: uma interação urgente para o bem da democracia

05/12/2019

A sociedade do século XXI é hiperconectada[1] e de tal modo modificada em relação àquela da década de 1990 que dificilmente conseguiríamos imaginar nossas vidas sem o emprego contínuo das tecnologias vinculadas à internet.

Nesse contexto, ganha cada vez mais relevância a quantidade de informação produzida, pelos usuários em uma sociedade digital, tendo em vista que os dados da rede dobram a cada ano e, somente nos anos de 2016 e 2017, foram gerados 90% da totalidade dos dados disponíveis[2]. O termo big data foi inicialmente cunhado para tratar deste crescimento exacerbado dos dados produzidos. Contudo, atualmente, ele se refere à possibilidade de se extrair padrões e/ou realizar predições, a partir de uma grande quantidade de dados, para modificar mercados, organizações, as relações entre os cidadãos e o governo[3], sem olvidar de seu emprego no exercício de profissões jurídicas.[4]

Os mecanismos utilizados para tanto são ferramentas de inteligência artificial que, por meio de algoritmos, são capazes de extrair as informações desejadas da base de dados disponível, direcionando informações para os usuários, visando prever e induzir comportamentos, para aumentar os lucros. Assim, sistemas foram criados para nos indicar quem adicionar como amigo, o que ler, ouvir, assistir ou comprar, em plataformas como o Facebook, Instagram, Spotify, Netflix, Google, Amazon e YouTube, a partir dos próprios dados que fornecemos ao utilizar estes sites e aplicativos

Por esta razão, Cathy O’Neil entende que vivemos uma economia de big data (big data economy)[5], economia baseada na utilização de dados extraídos das mídias sociais e da internet para analisar o comportamento dos seres humanos, em relação aos seus desejos, ações e poder aquisitivo, com a finalidade de realizar predições e induzir comportamentos de consumo nos usuários (numa nova dimensão da engenharia de consentimento)[6]. Os modelos matemáticos que embasam a big data economy são opacos, o que significa que as pessoas afetadas não sabem que estão sendo analisadas, tampouco têm conhecimento sobre os critérios levados em consideração pelo algoritmo para chegar a determinado resultado, de modo que é quase impossível discutir ou impugnar estes sistemas, uma vez que se desconhece o seu modo de atuação[7]. A tecnologia para análise de nossas emoções em rede[8] já é empregadas com tranquilidade para venda de produtos e em campanhas eleitorais.[9]

De forma semelhante, Shoshana Zuboff, denomina o sistema econômico vigente de capitalismo de vigilância, uma nova forma de capitalismo da informação, baseada em uma nova lógica de acumulação — de dados dos usuários, de capital e de direitos —, com o objetivo de prever e modificar o comportamento humano como forma de produzir lucros e alcançar o controle de mercado[10]. Todos os dados que produzimos (em sites que visitamos, likes do Facebook e Instagram, buscas no Google, e-mails, fotos, músicas, localização, compras, movimentos etc.) são relevantes, de forma que são adquiridos, tratados, agregados, analisados, formatados, vendidos e novamente analisados, em um ciclo orientado pelo imperativo de extração, não consentida, das informações geradas pelos usuários.

Nesse sentido, as populações passam a ser alvo da extração de dados e os indivíduos deixam de ser vistos como cidadãos e consumidores e passam a ser vistos como fornecedores de dados, ou seja, como fonte de extração de informações. Deste modo, rompe-se com a subjetividade dos usuários, criando-se padrões específicos e claros de objetificação (reificação), em um verdadeiro sequestro da experiência humana, para monetizar os dados produzidos pelos sujeitos e transformá-los em mercadoria a ser vendida para os anunciantes.

Como explica Zuboff:

"A economia de vigilância baseia-se em um princípio de subordinação e hierarquia. A velha reciprocidade entre as empresas e os usuários desaparece por trás do projeto de extrair excedentes de nosso comportamento para fins concebidos por outros — vender publicidade. Nós não somos mais os sujeitos da realização do valor. Também não somos, como alguns já afirmaram, o “produto” vendido pelo Google. Somos os objetos cuja matéria é extraída, expropriada e em seguida injetada nas usinas de inteligência artificial do Google, as quais fabricam os produtos preditivos que são vendidos a clientes reais — as empresas que pagam para jogar nos novos mercados comportamentais.[11]

Não se desconhece que, há muito, a psicologia comportamental estuda como influenciar o comportamento de seres humanos, por meio de processos de enviesamento e desenviesamento cognitivos[12]. Entretanto, em um contexto de big data e de inovações tecnológicas constantes, a extração de dados e a manipulação de grupos torna-se algo muito mais sútil, eficiente e abrangente, mormente porque pode se atingir um número muito maior de pessoas e, ainda, a customização de informações (v.g. com microtargeting), que dificulta o controle em nível global[13].

Vale salientar que já existem inúmeros exemplos que evidenciam a eficiência da utilização destes sistemas para a indução e modificação de comportamentos com o propósito de monetização. Ainda em 2012, a Target desenvolveu um sistema que, com base nos produtos adquiridos pelas clientes, era capaz de indicar uma provável gravidez, bem como a data de nascimento da criança, incrementando as vendas para este público alvo e aumentando, de forma significativa, os lucros da empresa[14].

O aplicativo Pokemon Go, jogo de realidade aumentada lançado em 2016 no Brasil, buscava induzir padrões de comportamento em seus usuários, a partir da utilização de seus dados, principalmente de sua localização, ao direcioná-los para lugares próximos aos estabelecimentos de seus patrocinadores[15]. Esta também é a estratégia de negócios mantida por plataformas como Google, Facebook, Amazon e Instagram.

Estas ferramentas, contudo, não se restringem ao âmbito do consumo[16]. Com efeito, os recentes escândalos envolvendo a empresa Cambridge Analytica, nos casos do Brexit, no Reino Unido, e da eleição de Donald Trump nos Estados Unidos, evidenciaram o modo como estas novas tecnologias afetaram os resultados dos processos eleitorais, a partir da utilização de mecanismos de microtargeting, com o direcionamento de informações específicas — inclusive de informações falsas (fake news e deep fakes[17]) — selecionadas para induzir um padrão de comportamento em cada eleitor, a partir da análise de seus dados pessoais[18].

Além disso, estudiosos apontam que a customização das informações, fornecidas de forma individualizada a cada usuário das redes sociais, em conformidade com suas próprias preferências, tem ensejado uma radicalização do posicionamento dos indivíduos[19]. Isso porque as redes sociais atuam como câmaras de eco (echo chambers), refletindo apenas informações e opiniões que corroboram as preconcepções do usuário, seja porque estes optam por seguir páginas e pessoas que compartilham de sua visão de mundo(viés de confirmação), seja porque os algoritmos que selecionam as informações exibidas selecionam aquelas que tem maior chance de serem lidas/aprovadas pelo usuário.

Por este motivo, pesquisadores constatam que vivenciamos um processo de retribalização da sociedade, marcado pela fragmentação social e pela intensificação das divergências políticas, que passam a possuir características tribais de ferrenha lealdade ao que são induzidos a crer, dificultando a possibilidade de compreensão mútua por meio do diálogo e o próprio processo de deliberação inerente aos governos democráticos[20].

Todo este quadro aqui evidenciado deve conduzir a todos os cidadãos, mas, em especial, os juristas, a problematizar o emprego da tecnologia e os impactos da virada tecnológica na sociedade e no Direito.[21]

Os avanços da tecnologia só vêm gerando encantamento por força dos propagandeados impactos de eficiência e pelo fato das plataformas e redes sociais gerarem satisfação (prazer) e, cada vez, maior engajamento (chegando a quadros de vício), no entanto, quando se percebe que seus “instrumentos” viabilizam novos modos de moldar o comportamento de consumidores e cidadãos, cabe aos juristas refletir e fomentar o aprimoramento e a accountability (controle), de modo a dimensionar os riscos que seu (mau) emprego pode gerar para o Estado de Direito e as relações sociais. Fica, mais uma vez, a reflexão e o convite ao debate!

[1] World Economic Forum. The Global Information Technology Report 2012: Living in a Hyperconnected World. Disponível em: <https://www.weforum.org/reports/global-information-technology-report-2012>. Data de acesso: 28.07.2019.

[2] Informações disponíveis em: MARR, Bernard. How Much Data Do We Create Every Day? The Mind-Blowing Stats Everyone Should Read. Revista Forbes, 21.05.2018. Disponívelem: <https://www.forbes.com/sites/ bernardmarr/2018/05/21/how-much-data-do-we-create-every-day-the-mind-blowing-stats-everyone-should-read/ #3129fc6560ba>. Data de acesso: 03.06.2019.

[3] MAYER-SCHÖNBERGER, Viktor; CUKIER, Kenneth. Big Data. 2. ed. Boston/Nova York, 2014, p. 10 (livro digital).

[4] Cf. NUNES, Dierle; BAHIA, Alexandre; PEDRON, Flávio. Teoria geral do processo: com comentários da virada tecnológica no direito processual. Salvador: Jus Podivm, 2020.

[5] O´NEIL, Cathy. Weapons of Math Destruction. New York: Crown, 2016.

Fonte: Por: Dierle Nunes e Ana Luiza Marques / Consultor Jurídico