Especialista explica o apelo para banir tecnologia de reconhecimento facial

A tecnologia de reconhecimento facial ganha espaço no Brasil e no mundo sob a justificativa da segurança. A ferramenta tem gerado protestos e debates sobre seu uso para o controle social. A Sputnik Brasil ouviu especialistas que discutem problemas como soberania de dados, as implicações no racismo e os limites legais envolvidos no tema.

O metrô de São Paulo pode ser visto como o centro nervoso da capital paulista, conectando áreas distantes de uma região metropolitana com 20 milhões de habitantes. Estima-se que nas linhas metroviárias da maior cidade do Brasil circulem diariamente quatro milhões de pessoas. Todas elas carregam dados valiosos, como gostos, opiniões e rostos a serem mapeados.

Não à toa, o Metrô de São Paulo resolveu que precisa de um sistema de reconhecimento facial. Em outubro de 2019, foi publicado o resultado da licitação LPI nº 10014557, que destinou mais de R$ 58,6 milhões ao Consórcio Engie Ineo Johnson, formado por empresas de França e Irlanda, para a implementação do Sistema de Monitoramento Eletrônico (SME) para as linhas Azul, Verde e Vermelha do metrô paulista — incluindo um sistema de reconhecimento facial por câmeras.

O Metrô defende que essa é uma forma de garantir mais segurança e facilitar a identificação de suspeitos de crimes e pessoas desaparecidas. Não é o que pensam organizações como Instituto Brasileiro de Defesa do Consumidor (Idec), Artigo 19, Intervozes, Coletivo de Advocacia em Direitos Humanos e as defensorias públicas de São Paulo e da União. Em conjunto, esse grupo pediu à Justiça a suspensão do uso de reconhecimento facial no metrô paulista.

Em março, a juíza Cynthia Thome, da 6ª Vara da Fazenda Pública de São Paulo, acatou o pedido dessas organizações e emitiu decisão impedindo o Metrô de usar o sistema de reconhecimento facial. Para a juíza, a iniciativa é “ilegal e desproporcional”, além de ter potencial de atingir direitos fundamentais. A decisão foi mantida em segunda instância.

A advogada Eloísa Machado, professora da Fundação Getúlio Vargas (FGV) de São Paulo, foi uma das representantes das organizações na ação civil pública movida contra o Metrô. À Sputnik Brasil, ela critica a implementação massiva da tecnologia e afirma que o sistema que o metrô pretende implementar viola direitos constitucionais brasileiros.

De inspiração europeia, a LGPD foi sancionada em 2018 e impõe diretrizes em relação ao tratamento de dados pessoais no Brasil por meio da atuação da Autoridade Nacional de Proteção de Dados (ANPD). Segundo essa legislação, as informações biométricas, que são alvo do reconhecimento facial, são dados pessoais sensíveis, cujo tratamento depende de circunstâncias incluindo o consentimento.

A ação contra o Metrô cita ainda violações ao Código de Defesa do Consumidor, ao Código de Usuários de Serviços Públicos, ao Estatuto da Criança e do Adolescente e até à Constituição, detalha Rafaela Alcântara, assessora de Direitos Digitais da Artigo 19.

Alcântara lembra que o tratamento dado às informações colhidas pelo Metrô de São Paulo não foi definido, deixando em dúvida o destino e o uso dos dados. Além da falta de governança e transparência, isso deixa margem para a exploração dos dados, mercadoria cada vez mais valiosa.

Tecnologia tem problemas, mas avança no país

A coleta massiva de dados pelo uso do reconhecimento facial é uma questão sensível. Um estudo da Universidade Federal de Campina Grande (UFCG) analisou cinco detectores de faces, em um conjunto de 550 mil quadros de vídeo de 365 indivíduos, e reconheceu problemas na detecção de rostos de pessoas do gênero feminino e indivíduos com idades entre 46 e 85 anos. Em quatro dos cinco detectores observados, houve maior risco de falhas com pessoas de pele escura. No caso do Brasil, país de maioria negra, esse fator é um grave componente.

Não é difícil encontrar na mídia casos de falhas da tecnologia. No Piauí, o pedreiro José Domingos Leitão foi preso injustamente, em outubro de 2020, pela Polícia Civil do Distrito Federal após ser identificado de forma errônea pelo reconhecimento facial, relata o portal R7. No Rio de Janeiro, uma mulher inocente foi detida, em julho de 2019, após a mesma tecnologia identificá-la como uma acusada de homicídio e ocultação de cadáver, reporta o portal G1.

Mesmo assim o reconhecimento facial avança rápido no Brasil e já é usado em diversos estados para identificar suspeitos. Segundo mapeamento do projeto O Panóptico, do Centro de Estudos de Segurança e Cidadania (Cesec), pelo menos 13 estados brasileiros fazem uso ou testam o reconhecimento facial para fins de segurança pública. Já um levantamento do jornal Folha de S.Paulo com secretarias estaduais aponta que 20 estados usam ou estão implementando a ferramenta.

Segundo estudo do Instituto Igarapé, o uso da tecnologia cresce no Brasil ano a ano desde 2011. Um dos casos mais notórios no Brasil é o da Bahia, que desde 2018 prendeu centenas de suspeitos empregando o reconhecimento facial. Em julho de 2021, o governador baiano, Rui Costa (PT), anunciou o Projeto Vídeo Polícia, parceria para a ampliação do uso da tecnologia para 78 municípios e a implementação de milhares de câmeras de reconhecimento facial no estado. A parceria com as empresas Oi e Avantia custou R$ 665 milhões, mostra o Diário Oficial da Bahia.

No Rio de Janeiro, o governo estadual já aplicou o sistema em projeto piloto no qual prendeu 63 pessoas. As empresas envolvidas na implementação da tecnologia no estado incluem a operadora Oi, a britânica Staff of Technology Solutions e a chinesa Huawei. Segundo reportagem do portal G1, há planos para a expansão da tecnologia como parte do programa de segurança pública do governo do estado, Cidade Integrada, um dos carros-chefes do governador fluminense, Cláudio Castro (PL).

O uso de reconhecimento facial no estado é questionado na Assembleia Legislativa do Rio de Janeiro (Alerj) pela deputada Dani Monteiro (Psol), autora do Projeto de Lei Nº 5240/2021, que pede o banimento da tecnologia e cita que no período de uso da ferramenta no estado não houve queda no número de crimes.

Reconhecimento facial pode agravar racismo no Brasil

Para funcionar, o reconhecimento facial se vale de bancos de dados já existentes, como os mantidos pelas polícias ou pelo próprio Banco Nacional de Mandados de Prisão. Esse fator também traz riscos, uma vez que os próprios bancos de imagens policiais no Brasil podem não ser confiáveis.

Há diversos casos de pessoas negras inocentes presas com base em bancos de imagens racialmente enviesados. Recentemente, no Ceará, ganhou notoriedade um caso no qual uma foto do ator negro norte-americano Michael B. Jordan apareceu em uma lista de procurados por uma chacina que deixou cinco mortos no Natal de 2021. Conforme publicou o UOL, a imagem do astro de Hollywood consta nos registros da Polícia Civil do Ceará para o reconhecimento de suspeitos.

Um relatório da Defensoria Pública do Rio de Janeiro (DPRJ) mostra que pelo menos 90 prisões injustas por reconhecimento fotográfico foram registradas no país entre 2012 e 2020, sendo 73 apenas em território fluminense. A maior parte dos casos envolve pessoas negras.

Em seu site, a própria DPRJ destaca o caso de Tiago Vianna Gomes, um homem negro de Nilópolis (RJ) denunciado nove vezes por roubo devido à inclusão de uma foto sua no banco de imagens de suspeitos de uma delegacia local. Em nenhum dos casos Gomes foi considerado definitivamente culpado. Absolvido em sete processos, o homem aguarda a conclusão dos dois restantes.

Existe o temor de que a tecnologia de reconhecimento facial intensifique distorções como essas.

A pesquisadora e hackerativista, que integra a Comissão de Transparência das Eleições do Tribunal Superior Eleitoral (TSE) para o pleito de 2022, alerta para o crescimento do número de governos usando essa tecnologia. Para ela é necessário “agir agora” para deter esse avanço.

O pesquisador Tarcízio Silva, autor do livro “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais” vai na mesma direção e afirma que tecnologias de vigilância tendem a ter grande aceitação no Brasil devido ao racismo.

O especialista ressalta que mesmo que a tecnologia fosse mais precisa, o avanço dela no Brasil fortaleceria problemas sociais ligados ao racismo, como o encarceramento em massa. Segundo ele, é dessa forma que age o chamado “racismo algorítmico”, que atravessa técnicas, como a do reconhecimento facial, ao fortalecer relações sociais racialmente desiguais.

Silva salienta que mesmo em ambientes com índices muito menores de letalidade policial que os do Brasil, o uso do reconhecimento facial promove excessos. O pesquisador cita uma pesquisa realizada em Londres que mostrou que policiais desrespeitavam protocolos de abordagem após identificações feitas pela tecnologia.

Em Buenos Aires, onde o reconhecimento facial é usado desde 2019, há outro exemplo de excessos. Na capital argentina foram colhidos dados de mais de 7,5 milhões de pessoas de forma irregular quase metade dos habitantes da região metropolitana. O sistema, porém, só estava autorizado a colher dados de pessoas procuradas, publicou o jornal argentino Pagina 12.

A coleta de dados foi ampla o suficiente para identificar até o presidente argentino, Alberto Fernández. O caso de coleta massiva só foi revelado depois de investigação judicial, concluída com a decisão de suspender o sistema.

Banimento do reconhecimento facial

Diante dos problemas complexos e de grandes proporções em torno da tecnologia de reconhecimento facial, cresce um movimento internacional pedindo o banimento do uso dessas ferramentas na segurança pública e no espaço público em geral.

É o caso da campanha Ban the Scan, promovida pela Anistia Internacional, e do manifesto Ban Biometric Surveillance, assinado por dezenas de organizações ao redor do mundo, incluindo 30 do Brasil.

A assessora de Direitos Digitais da Artigo 19, Rafaela Alcântara, destaca que a organização acredita que a tecnologia possa ser usada em exceções, mas que como regra deve ser proibida. No caso do uso para vigilância massiva em espaços públicos, a organização defende o banimento.

Para o professor Sergio Amadeu, a moratória é a melhor medida para impedir os riscos de abusos com base no uso do reconhecimento facial e garantir mais controle social sobre a ferramenta.

Já o autor e pesquisador Tarcízio Silva reforça que o banimento dessa tecnologia é necessário não só por questões técnicas, mas principalmente pelo risco imposto a todos os cidadãos.

Na mesma linha, a cientista da computação Nina da Hora debate o que chama de “solucionismo tecnológico”, que seria a esperança de resolver problemas sociais complexos, como a segurança, apenas com um passe de mágica da tecnologia.

Até o fechamento desta reportagem, o Metrô de São Paulo não respondeu as perguntas enviadas.


Discover more from Jornal Grande Bahia (JGB)

Subscribe to get the latest posts sent to your email.

Facebook
Threads
WhatsApp
Twitter
LinkedIn

Discover more from Jornal Grande Bahia (JGB)

Subscribe now to keep reading and get access to the full archive.

Continue reading

Privacidade e Cookies: O Jornal Grande Bahia usa cookies. Ao continuar a usar este site, você concorda com o uso deles. Para saber mais, inclusive sobre como controlar os cookies, consulte: Política de Cookies.