Mais de 1.000 pesquisadores, acadêmicos e especialistas assinaram uma carta aberta contra o uso da IA para prever crimes.
Qualquer pessoa que tenha assistido ao clássico Minority Report de ficção científica ficará preocupada com as tentativas de prever o crime antes que ele aconteça. Em um cenário ideal, a previsão de crimes poderia ajudar a determinar onde alocar recursos policiais – mas a realidade será muito diferente.
Os pesquisadores estão se pronunciando antes de uma publicação iminente intitulada “Um modelo de rede neural profunda para prever a criminalidade usando o processamento de imagens”. No artigo, os autores afirmam ser capazes de prever se uma pessoa se tornará um criminoso com base no reconhecimento facial automatizado.
“Ao automatizar a identificação de ameaças em potencial sem preconceito, nosso objetivo é produzir ferramentas para prevenção ao crime, aplicação da lei e aplicações militares menos impactadas por preconceitos implícitos e respostas emocionais”, diz o professor da Universidade de Harrisburg e coautor do artigo. Nathaniel JS Ashby.
“Nosso próximo passo é encontrar parceiros estratégicos para avançar nessa missão.”
Encontrar parceiros dispostos a provar pode ser um desafio. Os signatários da carta aberta incluem funcionários que trabalham com IA de gigantes da tecnologia, incluindo Microsoft, Google e Facebook.
Em sua carta, os signatários destacam as muitas questões das tecnologias atuais de IA que tornam tão perigosa a previsão de crimes.
O principal entre as preocupações é o viés racial bem documentado dos algoritmos. Todo sistema de reconhecimento facial atual é mais preciso ao detectar homens brancos e frequentemente sinaliza incorretamente os membros da comunidade BAME como criminosos com mais frequência quando usados em um ambiente de aplicação da lei.
No entanto, mesmo que as imprecisões nos algoritmos de reconhecimento facial sejam abordadas, os pesquisadores destacam os problemas com o sistema de justiça atual que foram destacados nas últimas semanas após o assassinato de George Floyd.
Entre os co-autores do artigo em disputa está Jonathan W. Korn, Ph.D. aluno destacado como veterano da polícia de Nova York. Korn diz que a IA que pode prever criminalidade seria “uma vantagem significativa para as agências policiais”.
Embora esse sistema facilite a vida dos policiais, isso o fará à custa da privacidade e da automação do perfil racial.
“Os programas de aprendizado de máquina não são neutros; agendas de pesquisa e conjuntos de dados com os quais trabalham frequentemente herdam crenças culturais dominantes sobre o mundo “, alertam os autores da carta.
“A aceitação acrítica de suposições padrão inevitavelmente leva ao design discriminatório em sistemas algorítmicos, reproduzindo idéias que normalizam hierarquias sociais e legitimam a violência contra grupos marginalizados”.