A Prefeitura de São Paulo informou na última semana que retomou a licitação do programa Smart Sampa para a instalação de 20 mil câmeras inteligentes que possuem tecnologia de reconhecimento facial. Ao menos 2.500 desses equipamentos serão colocados na região central da capital com o objetivo de melhorar a segurança da área.
A estrutura contaria também com uma central de monitoramento, que será capaz identificar um cidadão pelo reconhecimento facial. Seriam utilizadas como base de dados as imagens capturadas por instituições no momento da geração de documentos, como, por exemplo, a CNI (Carteira Nacional de Identidade) ou CNH (Carteira Nacional de Habilitação).
O cruzamento da imagem captada pela câmera na rua com o banco de dados da Prefeitura de São Paulo será feito por um software. Um alerta será disparado quando a tecnologia identificar alguma pessoa com pendências com a Justiça, por exemplo.
O Poder Executivo municipal afirma que será necessária uma paridade de 90% ou mais para que seja emitido o sinal, que ainda precisaria ser validado por um operador treinado sob "padrões internacionais". Caso confirmada a identificação, o agente enviaria as informações e a localização para os órgãos competentes, como a Polícia Militar e Civil.
Especialistas entrevistados pelo R7 alertam para questões de desenvolvimento desse tipo de software, o qual muitas vezes tem dificuldade de diferenciar com precisão traços de grupos rotineiramente marginalizados pela sociedade, como pretos e latinos.
“É muito fácil que o algoritmo seja treinado de forma que tenha um preconceito, já que as pessoas [que desenvolvem esses programas] podem ser preconceituosas”, explica Marcelo Crespo, coordenador do curso de direito da ESPM e especialista em direito digital e penal. “A grande base de dados precisa ser construída com muita cautela e muita ressalva.”
O TCM (Tribunal de Contas do Município) apontou em relatórios preliminares uma preocupação acerca do Smart Sampa, que poderia violar os direitos de negros e da população LGBTQIA+. A questão também é trazida pela professora associada do Instituto de Computação da UFF (Universidade Federal Fluminense) Aline Paes.
“Importar um software treinado com dados globais, ou de algum grupo sociodemográfico que não represente alguma parcela da população brasileira, é um problema enorme. Isso porque já foi mostrado em diversas pesquisas que os dados de treinamento disponibilizados publicamente possuem vieses de cor e gênero.”
Os softwares desse tipo são construídos com base em modelos de aprendizado. Quanto mais vezes esses programas se deparam com rostos ou características, maior é a capacidade deles de interpretar diferenças ou similaridades.
A grande questão que envolve esse tipo de software em relação a segurança e emissão de chamados é justamente quem os desenvolve. A máquina aprende aquilo para o qual ela é treinada e se torna uma espécie de extensão de quem a desenvolveu.
“Alguns sistemas confundem pessoas com animais, o que aponta uma exclusão de grupos que por muitas vezes já são excluídos e marginalizados, ainda mais em uma sociedade tão desigual como a brasileira. Assim, o primeiro passo desse processo seria treinar os algoritmos com dados de brasileiros”, reforça Paes.
Outra discussão que existe em relação a esse tipo de tecnologia é o monitoramento em massa da sociedade urbana, que transforma a cidade em uma espécie de reality show. Crespo explica que os cidadãos podem ir à Justiça caso se sintam afetados de alguma forma por esse recurso do poder público.
“Em regra, a população poderia recorrer contra abusos no uso das imagens captadas. Em princípio, deveria recorrer até administrativamente à própria prefeitura, caso tomasse conhecimento de uma situação que lhes fosse prejudicial. Em última instância, procurar Defensoria Pública, Ministério Público, enfim, até a imprensa para esse tipo de situação.”
Ainda segundo Crespo, as imagens registradas pelas câmeras, além de disparar alertas por mandados abertos no sistema, podem flagrar crimes no momento em que acontecem. Esse material pode ser utilizado, inclusive, em tribunais.
“A rigor, qualquer tipo de prova pode ser utilizada num julgamento, inclusive as imagens obtidas em câmeras do Smart Sampa. Não há nada que proíba isso. Em cada processo, quem faz essa avaliação é o juiz da causa”, diz o especialista em direito digital e penal.
Para Paes, a discussão sobre o monitoramento ostensivo das autoridades é profunda e complexa. Apesar de as câmeras possivelmente coibirem crimes ou alguma prática ilícita, existem pensadores que discutem os efeitos a longo prazo para a sociedade do monitoramento contínuo do espaço público.
“É necessário um debate profundo que envolva governos, legisladores, Judiciário, cientistas e, principalmente, os cidadãos, que poderão ter sua vida afetada por essas tecnologias. Um bom resumo disso vem de uma frase dita por Ella Jakubowska, ativista da European Digital Rights (EDRi): ‘Devemos pensar em como a tecnologia exacerba a distopia em que já vivemos’”, conclui a professora da UFF.