Cinco de março de 2019. Carnaval de Salvador. Enquanto aproveitava a festa de Momo, no circuito Barra-Ondina, Marcos Vinicius de Jesus Neri, de 19 anos, foi preso pela Polícia Militar da Bahia. O fato, comemorado pelo Governo do Estado, marcou a primeira prisão via tecnologia de reconhecimento facial do Brasil.
Dois meses depois, em evento na China, em que foram apresentados os resultados da política de reconhecimento facial implementada por sua gestão, o governador da Bahia, Rui Costa (PT), disse que a experiência havia sido exitosa, que estava “muito feliz com o resultado inicial” e que o objetivo era “avançar e proporcionar mais segurança aos baianos”.
Para além da já conhecida visão de Rui Costa sobre segurança pública -- sua comemoração da chacina do Cabula uma bela síntese --, é preciso um olhar crítico sobre a eficácia de tecnologias como a de reconhecimento facial para garantia de segurança à população.
Uma voz importante, neste sentido, é a de Pablo Nunes, coordenador de pesquisa da Rede de Observatórios de Segurança. Nunes apresenta uma série de apontamentos que colocam em xeque a utilização desse tipo de tecnologia: “A parte do corpo utilizada na biometria, seja a digital ou a face, nunca é analisada por completo. Isto quer dizer que são escolhidos alguns pontos do rosto ou do dedo e, com base nas distâncias entre esses pontos, é calculada a probabilidade de aquela digital ou de aquela face ser da pessoa cadastrada no banco de dados. No caso do rosto humano, as possibilidades de haver diferenças ou modificações nessas distâncias são bem maiores do que numa digital, já que uma pessoa envelhece, pode estar bocejando, piscando”, destaca.
As ponderações apresentadas pelo pesquisador já podem ser confirmadas com informações deste ano, por exemplo, da Micareta de Feira de Santana, também na Bahia. Naquela festividade, o sistema de videomonitoramento capturou os rostos de mais de 1,3 milhão de pessoas, gerando 903 alertas e resultando no cumprimento de 18 mandados e na prisão de 15 pessoas. Isso significa que, de todos os alertas emitidos a partir do reconhecimento facial, mais de 96% não resultaram em qualquer medida de segurança.
Mas, antes de parecer desperdício de recursos públicos e alocação inútil de tempo e pessoal, a política de reconhecimento facial significa algo de uma gravidade muito maior: é mais uma ação racista do Estado brasileiro. Sobre isso, dados da Rede de Observatórios de Segurança chamam a atenção:
- Entre março e outubro deste ano, 151 pessoas foram presas a partir da tecnologia de reconhecimento facial, em quatro estados (Bahia, Rio de Janeiro, Santa Catarina e Paraíba);
- A idade média das pessoas presas é de 35 anos;
- Nos casos em que havia informações sobre raça e cor, ou quando havia imagens das pessoas abordadas, registrou-se que 90,5% eram negras;
- As principais motivações para as abordagens e prisões foram tráfico de drogas e roubo, 24% cada.
Os números do estudo feito pela Rede e a popularização dessa tecnologia como política pública – já são 37 cidades, de 16 estados do país que, de algum modo, utilizam esse instrumento --, portanto, não deixam dúvidas: o reconhecimento facial é uma atualização do estrutural racismo que orienta a atuação do Estado e baseia a ação da justiça criminal e os mecanismos de segurança pública no Brasil, reforçando a ideia de que os negros são sempre alvos suspeitos.
Nos primeiros dias deste ano, Victor Mendes e Leonardo Nascimento foram “confundidos” por câmeras de segurança – não especificamente por reconhecimento facial – no Rio de Janeiro e presos injustamente. Eles são exemplos do viés racista das denúncias baseadas em imagens de segurança.
O olhar de um indivíduo diante de um vídeo também está por trás das tecnologias de reconhecimento facial. Ou seja, quem manipula os robôs e os algoritmos são seres humanos, que acabam reproduzindo seus preconceitos e corroborando com a política de segurança implementada.
Mas a questão é ainda mais complexa e de âmbito internacional, visto que o reconhecimento facial é apenas uma dentre tantas tecnologias marcadas por critérios racistas.
De acordo com a New Scientist, o sistema utilizado nos serviços públicos no Reino Unido, como na emissão de passaportes, funcionava para identificar pessoas brancas, mas falhava com negros e negras (colocar link que segue abaixo).
Nos Estados Unidos, uma pesquisa feita pela União Americana de Liberdades Civis registrou um alto índice de erros na tecnologia de reconhecimento facial utilizada pela polícia, afetando pessoas negras em uma proporção maior. A imprecisão e o debate em torno do uso racista da ferramenta levaram algumas cidades a proibirem o uso da tecnologia, como San Francisco e Somerville.
A respeito disso, vale citar a Linha do Tempo do Racismo Algorítmico, resultado da pesquisa de doutorado Dados, Algoritmos e Racialização em Plataformas Digitais, de Tarcizio Silva, da Universidade Federal do ABC, que demonstra como cadeias produtivas da plataformização digital (mídias sociais, aplicativos e inteligência artificial) são constituídas em vieses raciais.
Aqui, alguns casos que exemplificam o que Tarcizio qualifica como microagressões raciais online:
- Sistemas do Google que permitem empresas exibirem anúncios sobre crime especificamente a afro-americanos;- Resultados no Google Imagens que apresentam conteúdos hiper-sexualizados para buscas como “garotas negras”;
- Marcação de fotos de jovens negros com a tag “gorila” pelo Google Photos;
- Robôs conversacionais de startups que não encontram face de mulher negra e sistemas de visão computacional que erram gênero e idade de mulheres negras;
- Mecanismos de busca de bancos de imagens que invisibilizam famílias e pessoas negras;
- Aplicativos que transformam selfies e equiparam beleza à brancura;
- Interfaces de Programação de Aplicativos de visão computacional que confundem cabelo negro com perucas;
- Ferramentas de processamento de linguagem natural que possuem vieses contra linguagem e temas negros;
- Análise facial de emoções que associa categorias negativas a atletas negros.
Em outubro deste ano, mais um caso ganhou repercussão no Brasil, quando pesquisas no buscador do Google com a combinação de palavras “mulher negra dando aula” direcionava para conteúdos pornográficos, situação agravada quando o buscador não exibia qualquer material sexual para pesquisas com “mulher dando aula” ou “mulher branca dando aula”.
Integrante do Grupo de Pesquisa em Políticas e Economia da Informação e Comunicação da UFRJ, Silvana Bahia ressalta que o racismo algorítmico reproduz e intensifica o racismo presente na sociedade. Nas palavras dela, “o racismo algorítmico ocorre quando sistemas matemáticos ou de inteligência artificial são pautados por informações enviesadas/tortas que alimentam e regem seu funcionamento. As consequências são muitas, mas talvez a maior delas seja o aumento de desigualdades, sobretudo em um momento onde estamos cada vez mais tendo muitos dos nossos gostos e políticas mediadas por máquinas, com o avanço da tecnologia”.
Levantamento do PretaLab, iniciativa da organização Olabi, em que Silvana Bahia atua como coordenadora, e que estimula a inclusão de meninas e mulheres negras e indígenas no universo das tecnologias, demonstra como o racismo algorítmico é um fenômeno global que pode ser verificado nas diferentes plataformas (colocar link que segue abaixo). “Os algoritmos são um conjunto de instruções que consultam bancos de dados para executar sua função/ação. Se não há diversidade na produção de novas tecnologias, e tecnologias são produzidas por pessoas, as ações dos algoritmos não considerará muitos aspectos e/ou reforçará outros.
Os algoritmos trabalham com probabilidades, não com certezas, o problema é que estamos delegando muitas das nossas decisões para as máquinas sem levar isso em consideração. E além de tudo, não somos estimulados a pensar sobre ‘quem produz as tecnologias”, diz Bahia.
Os diferentes dados e números têm demonstrado que seja no Brasil ou em outras partes do mundo, do mesmo modo que os meios de comunicação tradicionais, a exemplo do rádio e da televisão, as plataformas digitais não são nada neutras e operam sob a lógica do racismo. Sem o devido debate e uma regulamentação que garanta a privacidade das pessoas, o uso das tecnologias digitais nas ações de Segurança Pública pode ampliar o controle do Estado sobre os indivíduos e reforçar as agressões e violências contra os grupos raciais já historicamente oprimidos.
*Alex Hercog é integrante do Intervozes. Paulo Victor Melo é jornalista, doutor em Comunicação e Cultura Contemporâneas e integrante do Intervozes.
Edição: Julia Chequer