Quando o algoritmo decide quem vai preso
Dados mostram que, em mais de 90% dos casos de reconhecimento facial que resultaram em prisões equivocadas no país, as vítimas eram pessoas negras.

Imagine uma tecnologia capaz de prever crimes antes mesmo que eles aconteçam. Parece ficção científica, mas já é realidade em várias cidades do Brasil, onde softwares de reconhecimento facial e algoritmos de “inteligência preditiva” são usados para identificar suspeitos e mapear “áreas de risco”. O problema? Esses algoritmos não são neutros.
Dados mostram que, em mais de 90% dos casos de reconhecimento facial que resultaram em prisões equivocadas no país, as vítimas eram pessoas negras. Isso não é coincidência — é consequência de bancos de dados viciados, que alimentam máquinas com os mesmos preconceitos que estruturam nosso sistema penal há séculos. A tecnologia, em vez de corrigir desigualdades, pode estar ampliando injustiças.
O caso de Pedro Henrique Gonzaga, no Rio de Janeiro, é um retrato dessa falha cruel.
Em julho de 2019, Pedro, um jovem negro de 23 anos, foi preso injustamente após ser identificado por um sistema de reconhecimento facial como se fosse um foragido da Justiça. Passou horas sob constrangimento e medo, até ser liberado. A Defensoria Pública do Rio de Janeiro alertou: naquele ano, o reconhecimento facial levou a erro em pelo menos 90% dos casos, quase todos envolvendo pessoas negras.
Nos Estados Unidos, esse debate já chegou ao Congresso. No Brasil, seguimos entusiasmados com a “eficiência” dessas ferramentas, sem nos perguntar: quem está sendo vigiado, e quem nunca é confundido com criminoso? Os mesmos que morrem em abordagens policiais, que têm o corpo revistado nos shoppings, agora são também os primeiros a serem confundidos por um sistema que decide com base em dados, e não em contextos.
O algoritmo que decide quem deve ser monitorado, preso ou “reeducado” está longe de ser neutro. E mais: raramente é transparente. Você sabe quem programou esse sistema? Quem o contratou? Quais critérios ele usa para associar rostos a perfis de risco? Nem eu. E, se não sabemos, estamos todos reféns de um código invisível que tem cor, classe e território preferenciais.
A pergunta que deixo para você, leitor, é: o futuro da segurança pública será mais justo ou apenas mais automatizado?

Sandra Gomes é mãe, mulherista e ativista social. Advogada Criminal, Pós Graduanda em Direito Penal e Processual Penal, Pós Graduanda em Direito Médico. É ex Presidente da Comissão da Igualdade Racial da Abracrim AL e Ex Vice Presidente da Comissão de Direitos Humanos da OAB/AL.