Quando a Inteligência Artificial é Preconceituosa: O Reconhecimento Facial em xeque
Para se ter uma ideia da precariedade do reconhecimento fotográfico, uma foto do ator Michael B. Jordan, que estrelou filmes como Creed e Pantera Negra, levou à inclusão dele como um dos suspeitos em chacina que deixou cinco mortos em Fortaleza
Cássio Thyone Almeida de Rosa
Graduado em Geologia pela UNB, com especialização em Geologia Econômica. Perito Criminal Aposentado (PCDF). Professor da Academia de Polícia Civil do Distrito Federal, da Academia Nacional de Polícia da Polícia Federal e do Centro de Formação de Praças da Polícia Militar do Distrito Federal. Ex-Presidente e atual membro do Conselho de Administração do Fórum Brasileiro de Segurança Pública
Pode uma máquina ser considerada racista? Essa é uma pergunta que certamente parece descabida e sem sentido, já que máquinas, a princípio, não fazem escolhas e não manifestam opiniões. Mas e quanto às máquinas consideradas “inteligentes”, nascidas no berço da “inteligência artificial”, em que as decisões são decorrentes de processos que chamamos de algoritmos?
Quando o assunto é o Reconhecimento Facial, a discussão ganha espaço e passa a fazer muito sentido. O reconhecimento facial é uma das modalidades de reconhecimento de imagens, a outra é o reconhecimento fotográfico, feito diretamente por pessoas e utilizado com frequência como ferramenta nas investigações. Importante NÃO confundir esses tipos de reconhecimento com o denominado Reconhecimento de Pessoas, previsto em nosso Código Processual Penal (CPP). Não foram poucos os casos em que erros judiciais se concretizaram com reconhecimento equivocados de pessoas.
Quanto ao reconhecimento fotográfico, aquele feito por pessoas em fotografias, em especial utilizado em investigações, a quantidade de erros parece ser ainda maior. Em recente matéria veiculada pela revista Piauí, em setembro de 2021, a autora, Hellen Guimarães, não por acaso, ao acessar dados relativos a esse tipo de erro crava: “Um caso isolado atrás do outro”. Com o intuito de trazer números, reproduzimos pequeno trecho desse artigo:
“Erros no reconhecimento por foto têm acontecido em vários estados brasileiros, mas levantamentos recentes do Colégio Nacional de Defensores Públicos Gerais (Condege) mostram que o Rio é o epicentro desse tipo de injustiça. Um deles, publicado em setembro do ano passado, mapeou 58 erros de reconhecimento fotográfico de junho de 2019 a março de 2020. Todos os casos ocorreram no Rio de Janeiro e 80% dos suspeitos cujas informações constavam no inquérito eram negros. Em 86% das ocorrências, houve o decreto de prisão preventiva, infligindo às vítimas períodos de privação de liberdade que variaram de cinco dias a três anos. Outro relatório do órgão, publicado em fevereiro deste ano, contou com informações de dez estados diferentes. Mesmo assim, o Rio liderou com folga, respondendo por 46% dos casos”.
E quando pensamos sobre o Reconhecimento Facial?
O avanço da tecnologia trouxe para sistemas de segurança câmeras de celulares, aplicativos diversos, a possibilidade de emprego do reconhecimento facial. Sem dúvida é algo positivo. Entretanto, quando o emprego requer uma dose de certeza maior, envolvendo questões delicadas como a identificação de pessoas em casos criminais, é preciso ponderar e contextualizar melhor a questão, posto que os algoritmos associados a essa tecnologia estão longe de serem considerados plenamente confiáveis.
No último mês do ano passado e no início deste ano, em matérias divulgadas na mídia, um caso de erro baseado em um reconhecimento facial ganhou espaço: o pedreiro José Domingos Leitão, de 52 anos, foi preso por policiais civis do DF acusado como autor de um crime, depois que um programa eletrônico de reconhecimento facial o apontou como suspeito. No dia 7 de outubro de 2020, ele foi acordado em casa, no município de Ilha Grande, no Piauí, e transportado numa aeronave para o Departamento de Polícia Especializada (DPE), onde ficou detido por 3 dias.
A repercussão do caso foi ainda maior porque trouxe à tona questionamentos em relação ao alcance dessa ferramenta, assim como sobre os responsáveis pelo trabalho (peritos ou não), dentre outras. Representantes das principais entidades da perícia oficial foram solicitados a se manifestar e deixaram claro que a falta de protocolos periciais está intimamente ligada a esse tipo de erro e chamam o tal reconhecimento de mera “comparação facial”. Como utilizar então esse limitado indício para sustentar uma prisão, mesmo que preventivamente?
Em relação aos erros nos reconhecimentos fotográficos, o cientista político Pablo Nunes, coordenador do Centro de Estudos de Segurança e Cidadania (CESeC), na citada matéria da revista Piauí, levanta uma importante questão: a de que o viés racial ajudaria a entender os motivos associados a esses erros, conforme traz o texto:
“Em sua avaliação, não há como discutir o reconhecimento fotográfico utilizado hoje nas delegacias brasileiras sem falar de racismo. “A história da escravidão é baseada também na produção de imagens para controle de população negra. A polícia hoje continua tendo como principal ator a ser perseguido, a ser aprisionado, a ser revistado, a ser morto, os mesmos que na época da escravidão: jovens negros. Não mudou muita coisa.”
Mas e o reconhecimento facial realizado por programas computacionais, algoritmos e bancos de dados? Ao que sugerem especialistas, um dos problemas pode ser o mesmo: o viés racista. Vejamos palavras do cientista político reproduzidas a partir da matéria da Piauí:
“Algoritmos não são produtos do nada, não se constroem no vácuo. São produzidos numa sociedade e refletem essa sociedade, são embutidos dos preconceitos e questões dessa sociedade, como o racismo. É inevitável que eles reproduzam o racismo, uma vez que não resolvemos esse problema na sociedade.”
Para fomentarmos ainda mais a discussão, faremos duas rápidas citações referentes a matérias veiculadas recentemente em mídias: a primeira intitulada: “Homem preto fica 10 dias preso por erro de reconhecimento facial” do site Tecmundo, veiculada no dia 29 de dezembro, a respeito de um caso ocorrido nos Estados Unidos. Na conclusão da matéria há o comentário de que “Especialistas alertam sobre o viés racial de tecnologias do tipo, que podem ser menos precisas ao analisarem tons de pele que não sejam brancos”.
Finalmente, a outra citação nos remete a um tom que beira a piada: o site G1 veiculou matéria no dia 07 de janeiro intitulada: “Foto de astro do cinema Michael B. Jordan aparece em lista de procurados pela polícia do Ceará”. O texto informa que “Imagem do ator de Creed e Pantera Negra aparece como um dos suspeitos em chacina que deixou cinco mortos em Fortaleza. Secretaria da Segurança diz que o trabalho de reconhecimento fotográfico é ‘apenas uma das etapas que podem levar ao indiciamento’”.
Parece claro então: A máquina só poderia mesmo espelhar seu criador!!