separador
Atualizado:
Reportagem originalmente publicada em The Intercept Brasil, em 11/02/2020
O METRÔ DE SÃO PAULO decidiu instalar um sistema de câmeras com reconhecimento facial. A ideia é a de sempre: facilitar a identificação de suspeitos de crimes, fugitivos ou pessoas desaparecidas entre as 3,5 milhões de pessoas que usam o sistema diariamente. Quem vai vender a tecnologia é o consórcio Engie Ineo Johnson, formado por empresas da França e Irlanda, que irá embolsar mais de R$ 58,6 milhões para implementar o sistema ao longo dos próximos anos.
Mas seis entidades de defesa de direitos do cidadão e do consumidor acabaram de entrar com uma ação judicial questionando o negócio. O governo não justificou adequadamente a escolha de um sistema que tem falhas conhecidas, dizem as defensorias públicas de São Paulo e da União e as ONGs Idec, Artigo 19, Intervozes e Coletivo de Advocacia em Direitos Humanos.
Também não se preocupou em estabelecer garantias mínimas de privacidade para todos os passageiros do metrô, que terão seus passos monitorados e seus rostos analisados sem consentirem com isso. “A escala humana sobre a qual será aplicada tal sistema de monitoração e vigilância é sem precedentes no país, atingindo milhões de pessoas diariamente”, diz a ação.
“É uma ação para produção de provas, para que o metrô forneça informações que estão opacas e não disponíveis”, me explicou Michel Souza, advogado do Idec. “Essa tecnologia, por trazer uma invasão na privacidade das pessoas, tem que ser muito bem justificada. E no caso não parece que está sendo. Sequer o metrô fez um estudo de impacto”, falou Estela Waksberg Guerrini, coordenadora do núcleo de defesa do consumidor da defensoria pública de SP.
Na ação, as entidades fazem uma pergunta simples: qual será o banco de dados utilizado para viabilizar o reconhecimento facial? Ao captar imagens das pessoas, o sistema precisa compará-las a um banco de imagens pré-existente para fazer a identificação. No caso do carnaval do Rio, por exemplo, o banco de dados é o da polícia fluminense.
No caso do metrô, não se sabe. Tampouco é claro se haverá consentimento dos usuários do uso dessas imagens e que tipo de medida de proteção seriam adotadas. O metrô não especificou se o banco de dados já existe, se um novo será criado, que tipo de informações estarão nele e muito menos quem terá acesso a esse oceano de informações.
“As respostas dadas pela Ré, até o momento, não são capazes de elucidar como o sistema de monitoramento eletrônico com reconhecimento facial será, de fato, usado e qual o impacto que terá no direito de milhões de usuários diários do metrô”, diz a ação.
As entidades também perguntam quais dados exatamente serão coletados e analisados e por quanto tempo eles ficarão guardados, segundo as diretrizes da Lei Geral de Proteção de Dados, a LGPD, que entrará em vigor no segundo semestre deste ano. Segundo a lei, as pessoas precisam autorizar a coleta de suas informações pessoais e serem avisadas sobre o uso que se fará delas.
O metrô também foi questionado se obterá consentimento de pais ou responsáveis para captar as imagens de menores de idade. “A lógica imanente à vigilância de massa e indeterminada típica do reconhecimento facial impede em absoluto a distinção entre crianças e adolescentes e adultos”, diz a ação. “Dessa forma, sua utilização em ambientes abertos ao público resulta em uma atividade com enorme e irreparável potencial lesivo”.
As entidades também pedem provas documentais sobre como será garantido o anonimato de quem tiver a imagem captada, se há análise de impacto financeiro em casos de possíveis vazamentos e detalhes sobre a segurança do sistema, além de recursos para arcar com indenização decorrente de falhas.
Segundo os autores da ação, são explicações que a legislação atual – além da LGPD, o Código de Defesa do Consumidor e a Lei Geral de Responsabilização das Estatais – já deveria, em tese, exigir. “É um assombro que a licitação tenha sido concluída sem expor detalhadamente o impacto da implementação desse sistema”, diz Guerrini.
Tecnologia não resolve o problema
Em 2018, a ViaQuatro, concessionária privada da linha 4-Amarela do metrô de São Paulo, já havia sido alvo de ação civil pública do Idec contra câmeras instaladas para filmar e analisar as emoções dos passageiros. No sistema, anunciado com pompa como “Portas Digitais”, as pessoas eram gravadas e tinham suas emoções analisadas em tempo real para fins publicitários. A justiça ordenou que as câmeras fossem desligadas em setembro de 2018.
O novo sistema, no entanto, tem uma justificativa diferente – sai a publicidade, entra a segurança. Para esse fim, a Lei Geral de Proteção de Dados determina que deve haver uma regulamentação específica, que ainda não existe. Nesse vácuo, o que vale são “os princípios gerais de proteção”: deve haver um motivo claro para que essas informações sejam coletadas, e os responsáveis devem adotar medidas de transparência, não discriminatórias, de prevenção e segurança.
Mas essas medidas ainda não existem. O metrô já havia sido questionado pelo Idec sobre os motivos que o levaram a abrir o edital para contratação de tecnologia. Enumerou algumas: aumentar a quantidade de locais monitorados, melhorar a qualidade do armazenamento de imagens, bem como seu tempo, implementar um sistema capaz de gerar alarmes, integrar sistemas e centralizar equipamentos e monitorar áreas de circulação restrita. Mas, segundo as entidades, nenhum desses objetivos exige a instalação de um sistema de reconhecimento facial com a individualização de todos os usuários.
Ao instalar um sistema de vigilância em massa, que submete todas as pessoas à análise e reconhecimento de informações, o metrô viola o princípio constitucional da privacidade. E sistemas dos tipo, nós sabemos, são enviesados e reforçam estereótipos. Um levantamento exclusivo publicado pelo Intercept mostrou, por exemplo, que mais de 90% dos presos por monitoramento facial no Brasil são negros. Já há empresas investindo pesadamente em inteligência artificial para identificar, a partir de rostos, pessoas “psicologicamente desequilibradas” e outros absurdos do tipo.
No Reino Unido, uma pesquisa mostrou que o reconhecimento facial usado pela polícia de Londres tem 81% de chance de erros. No ano passado, no Rio de Janeiro, uma mulher foi detida por engano ao ser reconhecida erroneamente pelo sistema. Segundo as entidades, informações preliminares fornecidas pelo metrô confirmam que a empresa poderia repassar os dados coletados pelas câmeras diretamente à polícia sem ordem judicial – o que poderia aumentar o número de inocentes presos ao serem confundidos.
“A ação judicial protocolada pelas entidades reflete a preocupação com a falta de transparência que embasou um investimento tão volumoso em uma tecnologia que ainda possui altos índices de erro. Sem informações precisas, também é questionável a prioridade de se gastar milhões em um monitoramento falho em vez de investir na necessária melhoria e expansão do sistema de transportes sobre trilhos”, escreveram as entidades na ação entregue à justiça.
A expectativa delas é que a resposta seja determinante para definir os limites da implementação de reconhecimento facial em larga escala no Brasil.