Múltiplas Vozes 17/12/2025

Algoritmos decidem, mas quem se responsabiliza? Os riscos da adoção desregulada de tecnologias digitais na Justiça criminal brasileira

A incorporação de reconhecimento facial, câmeras corporais e inteligência artificial no sistema de Justiça avança mais rápido do que as salvaguardas necessárias para proteger direitos fundamentais

Compartilhe

Pablo Nunes

Coordenador do projeto O Panóptico e diretor do Centro de Estudos de Segurança e Cidadania (CESeC)

Thallita Lima

Coordenadora de pesquisa do projeto O Panóptico

O Brasil concentra a terceira maior população carcerária do mundo, composta majoritariamente por pessoas negras e pobres. Nesse contexto, a adoção acelerada de tecnologias como reconhecimento facial e inteligência artificial no sistema de Justiça criminal deveria ser tratada com extrema cautela. Quem presta atenção ao noticiário, porém, vê que é o oposto que está acontecendo.

Um mapeamento nacional realizado pelo CESeC[1] identificou que 30 órgãos de segurança e justiça já utilizam tecnologias de reconhecimento facial para fins investigativos no país. Entre eles, 14 Polícias Civis, 13 Secretarias de Segurança Pública e três Ministérios Públicos estaduais. A empresa mais presente é a Clearview AI, conhecida internacionalmente por construir bancos de dados com bilhões de imagens coletadas sem consentimento, prática já considerada ilegal em diversos países.

O valor total contratado apenas com a representante da Clearview no Brasil ultrapassa R$ 14 milhões. Todos os contratos identificados foram firmados por inexigibilidade de licitação, sob o argumento de singularidade técnica. Esse mecanismo, quando aplicado a tecnologias de alto risco, reforça monopólios tecnológicos e reduz a capacidade de auditoria estatal.

O problema central é, afora os vieses já identificados nos algoritmos de reconhecimento facial na identificação de perfis populacionais específicos – notadamente pessoas negras– , a ausência de governança sobre seu uso. Das 81 solicitações de informação enviadas a órgãos estaduais, em mais da metade dos casos não obtivemos resposta. Quando houve retorno, as informações eram frequentemente genéricas ou incompletas. Essa opacidade institucional não é acidental; ela permite que práticas experimentais se consolidem sem o devido escrutínio público.

A mesma lógica que fundamenta a expansão do reconhecimento facial na segurança pública brasileira agora justifica a aquisição desses algoritmos para investigações criminais. Não há, contudo, qualquer avaliação demonstrando que a tecnologia produz melhorias efetivas no policiamento ou na elucidação de crimes. Dinheiro público tem sido gasto sem justificativa razoável, sem transparência e sem garantias de proteção aos direitos dos cidadãos.

É preciso inserir na equação os graves problemas que o país enfrenta com o reconhecimento de pessoas no sistema de justiça. O Conselho Nacional de Justiça (CNJ), sob coordenação do Ministro Rogério Schietti, debruçou-se[2] sobre esse aspecto da produção de provas em processos criminais e revelou a falta de parâmetros claros para identificações feitas por imagens ou pessoalmente, o que tem causado há anos o aprisionamento de pessoas inocentes. Quanto tempo decorrerá até começarmos a contar os casos de prisões injustas provocadas por algoritmos de reconhecimento facial?

Além do reconhecimento facial, outras inteligências artificiais têm sido utilizadas no Judiciário. O CNJ mapeou 140 projetos de IA nos tribunais brasileiros[3], dos quais 63 estão ativos. A maioria é utilizada para apoio à atividade jurisdicional, auxiliando na elaboração de decisões e sentenças. Uma pesquisa revelou que 76% dos magistrados e servidores utilizam plataformas privadas como ChatGPT e Copilot, transferindo dados processuais sensíveis para empresas cujos modelos de governança são incompatíveis com a administração pública. Mais alarmante: 85% dos assessores não informam aos magistrados quando utilizam essas ferramentas.

As câmeras corporais usadas por policiais ilustram outro paradoxo. Apresentadas como solução para reduzir a letalidade policial e aumentar a transparência, sua eficácia depende integralmente do ecossistema político e jurídico em que operam. Quando há protocolos claros de acionamento automático, preservação da cadeia de custódia e acesso isonômico às imagens, essas tecnologias podem fortalecer o controle externo. Quando não há, tornam-se frágeis instrumentos de prestação de contas.

Em Santa Catarina, pioneira no uso em larga escala, o programa foi descontinuado em 2024 após constatação de que em 55% das ocorrências os policiais simplesmente não ligaram as câmeras. No Rio de Janeiro, a Defensoria Pública relatou que a Polícia Militar respondeu a apenas 51 dos 90 ofícios solicitando imagens. Em São Paulo, que adotava um programa considerado modelo, mudanças recentes na governança enfraqueceram sua efetividade no controle da letalidade, levando a um aumento expressivo de mortes por policiais nos últimos anos. O padrão se repete: dificuldade de acesso, envio de gravações incorretas, silêncio judicial diante da omissão policial.

O marco regulatório permanece fragmentado e contraditório. A Lei Geral de Proteção de Dados exclui parcialmente as atividades de segurança pública e persecução penal de seu escopo. A minuta atual do Projeto de Lei 2.338/2023, conhecido como Marco Legal da IA, classifica o reconhecimento facial como “risco excessivo”, mas autoriza seu uso em segurança pública sem prever mecanismos efetivos de auditoria e governança. A Portaria do Ministério da Justiça 961 de 2025[4] estabeleceu diretrizes importantes sobre uso de inteligência artificial em investigações, mas não criou instrumentos concretos de fiscalização no que se refere ao reconhecimento facial.

O desafio que se impõe é transformar princípios genéricos em mecanismos concretos de controle e supervisão. Isso exige transparência sobre quais tecnologias estão sendo utilizadas, por quem e com quais salvaguardas. Exige supervisão humana significativa nas decisões automatizadas. Exige acesso equitativo às evidências digitais para garantir paridade de armas entre acusação e defesa. Exige, sobretudo, reconhecer que uma alegada eficiência – nunca provada – não pode ser o único critério orientador quando direitos fundamentais estão em jogo.

A tecnologia não é neutra. Seus usos e regulações emergem de decisões políticas que precisam ganhar visibilidade e ser submetidas ao controle democrático. Enquanto isso não acontecer, continuaremos delegando a algoritmos opacos decisões que afetam a liberdade de pessoas, sem que ninguém seja responsabilizado quando o sistema falha.

Referências
[1] Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal. Fonte: https://cesecseguranca.com.br/textodownload/algoritmos-e-direitos-tecnologias-digitais-na-justica-criminal/
[2] CNJ. Grupo de Trabalho Reconhecimento de Pessoas. Fonte: https://www.cnj.jus.br/wp-content/uploads/2023/05/relatorio-gt-reconhecimento-de-pessoas-v5-17-10-2022.pdf
[3]IA generativa é utilizada em mais de 45% dos tribunais brasileiros. Fonte:
https://www.cnj.jus.br/ia-generativa-e-utilizada-em-mais-de-45-dos-tribunais-brasileiros/
[4] Portaria do MJSP regulamenta uso de tecnologia em investigações criminais e inteligência de segurança pública. Fonte: https://www.gov.br/mj/pt-br/assuntos/noticias/portaria-do-mjsp-regulamenta-uso-de-tecnologia-em-investigacoes-criminais-e-inteligencia-de-seguranca-publica

Newsletter

Cadastre e receba as novas edições por email

Captcha obrigatório
Seu e-mail foi cadastrado com sucesso!

EDIÇÕES ANTERIORES