ICL Notícias

Especialista aponta racismo no reconhecimento facial usado pela PM do Rio

Segundo Pablo Nunes, do Centro de Estudos de Segurança e Cidadania (CESeC), uso da tecnologia tem custo elevado e parâmetros racistas
03/01/2024 | 09h14

Por Luiz Almeida

A utilização de reconhecimento facial durante o Réveillon em Copacabana foi motivo de comemoração pela Polícia Militar do Rio de Janeiro. Segundo a corporação, a tecnologia permitiu a prisão de dois homens foragidos da Justiça e passará a ser utilizada no trabalho cotidiano. O uso do equipamento, no entanto, é questionável.

De acordo com o coordenador do Centro de Estudos de Segurança e Cidadania (CESeC), Pablo Nunes, a tecnologia, com custo elevado e que não foi divulgado pelo governo estadual, não teve comprovada sua eficácia.

“Do ponto de vista do gasto público, o resultado é patético. Essa tecnologia demanda uma parcela de dinheiro dos cofres públicos que não pode ser dispensado para que tenha esse tipo de resultado”, avalia Nunes.

Tão importante quanto esse aspcto é o componente racista da programação desse tipo de recurso, que identifica como criminosos muito mais cidadãos negros do que brancos. Para Nunes, o uso do reconhecimento facial na política de segurança pública do Rio “é baseado numa ideia de que os direitos da população negra podem ser violados e flexibilizados, relativizados”.

Pablo Nunes

ICL Notícias – A PM do Rio afirmou que reconhecimento facial funcionou bem durante patrulhamento do Réveillon em Copacabana. Qual a sua avaliação desse tipo de equipamento? 

Pablo Nunes – Percebemos que nesses grandes eventos, quando a gente consegue registro do número de pessoas que são abordadas com o uso da tecnologia, a quantidade de faces capturadas pelo equipamento, e compara com os ditos resultados positivos, percebemos que há uma discrepância gigantesca. Há muita coleta de dados e um número grande de pessoas que são abordadas e que não são procuradas. E foi isso que aconteceu propriamente no Réveillon de Copacabana.

Tivemos milhares de pessoas na praia e a polícia informou que foi realizada uma prisão. É um resultado patético do ponto de vista do gasto público. O uso da tecnologia demanda uma parcela de dinheiro dos cofres públicos que não pode ser dispensado para que tenha esse tipo de resultado. Também não podemos esquecer de toda a problemática dos erros e violações de direitos que essa tecnologia traz.

Em 2019, uma mulher negra chegou a ser detida por engano, em Copacabana, depois de ter sido confundida pelo sistema de reconhecimento facial. é uma tecnologia racista?

A gente olha para a tecnologia de reconhecimento facial pensando que ela fala muito mais sobre uma ideia de segurança pública que temos, que construímos no país, que é baseado no encarceramento em massa, no racismo que estrutura a ação policial. É baseado numa ideia de que os direitos da população negra podem ser violados e flexibilizados, relativizados.

E, nesse contexto, onde todos esses componentes se encontram. A gente tem o reconhecimento facial que nada mais é do que abordagem policial e o encarceramento em massa. Então, sob todos os pontos de vista, nenhum benefício que se possa advogar do uso de reconhecimento facial supera esses efeitos deletérios que colocam questões muito sérias para a própria ideia de democracia no Brasil.

Como avalia a defesa desse método pelos governos e as forças policiais, apesar da violação de direitos?

Se a gente tem uma ferramenta tecnológica que sabidamente produz mais erros, ou seja, mais danos, mais efeitos negativos para uma parcela da população, e a gente, mesmo com todas as provas, decide seguir usando essa tecnologia, estamos, de uma maneira muito clara, dizendo e reeditando frases que já são muito clássicas. Que já estiveram na boca de muitas autoridades do Brasil, que é o dano colateral, são os ovos que precisam ser quebrados para se fazer uma omelete, para se fazer um bolo, ou toda aquela flexibilização, que no fim das contas é isso, dos direitos da população negra, que vira e mexe, é colocada como um dano colateral, como algo que a gente deve aceitar para que a sociedade avance. A gente tem visto que a sociedade não está avançando. Ao contrário, tem, em muitos aspectos, regredido.

O reconhecimento facial utiliza inteligência artificial e algoritmos. Em que medida os dois parâmetros carregam fortes elementos de discriminação?

Toda a literatura internacional demonstra que os algoritmos de reconhecimento facial têm tido, especialmente para mulheres negras, um grau de erro muito maior do que em comparação com homens brancos, revelando não só um viés de raça muito forte, mas também de gênero. Isso demonstra exatamente quem são as pessoas que constroem esses sistemas.

E, tirando esse algoritmo e colocando na rua, nas mãos das forças policiais, a gente tem um resultado que é dramático. Se desdobra em abordagem, violência e encarceramento em massa. Então, por onde a gente olha os resultados do reconhecimento facial são muito longe do ideal que a gente pensa para uma sociedade, que é uma sociedade segura e que consiga garantir a fruição de todos os direitos para todos os indivíduos, sem nenhum tipo de discriminação.

Aqui no Brasil temos dados sobre a probabilidade de uma pessoa negra ser presa por essa tecnologia?

Essa é uma outra face do problema. Infelizmente, não temos esse dado aqui no Brasil. As autoridades brasileiras dizem não ter essa probabilidade de uma pessoa negra ser erroneamente confundida pelo reconhecimento facial. Mas a gente sabe que é muito alto do ponto de vista do contexto nacional.

Temos um ponto de vista que é o encarceramento em massa, que é exatamente essa ideia de que aprisionar o maior número de pessoas vai trazer algum benefício para a segurança da população e da sociedade como um todo. O crescimento da população encarcerada não tem significado um aumento da sensação de segurança e, muito menos, na redução de alguns indicadores de criminalidade.

 

 

 

 

Deixe um comentário

Mais Lidas

Assine nossa newsletter
Receba nossos informativos diretamente em seu e-mail