Mais de 1.000 pesquisadores assinam carta em oposição à IA que ‘prevê crimes’

Mais de 1.000 pesquisadores, acadêmicos e especialistas assinaram uma carta aberta contra o uso da IA ​​para prever crimes.

Qualquer pessoa que tenha assistido ao clássico Minority Report de ficção científica ficará preocupada com as tentativas de prever o crime antes que ele aconteça. Em um cenário ideal, a previsão de crimes poderia ajudar a determinar onde alocar recursos policiais – mas a realidade será muito diferente.

Os pesquisadores estão se pronunciando antes de uma publicação iminente intitulada “Um modelo de rede neural profunda para prever a criminalidade usando o processamento de imagens”. No artigo, os autores afirmam ser capazes de prever se uma pessoa se tornará um criminoso com base no reconhecimento facial automatizado.

“Ao automatizar a identificação de ameaças em potencial sem preconceito, nosso objetivo é produzir ferramentas para prevenção ao crime, aplicação da lei e aplicações militares menos impactadas por preconceitos implícitos e respostas emocionais”, diz o professor da Universidade de Harrisburg e coautor do artigo. Nathaniel JS Ashby.

“Nosso próximo passo é encontrar parceiros estratégicos para avançar nessa missão.”

Encontrar parceiros dispostos a provar pode ser um desafio. Os signatários da carta aberta incluem funcionários que trabalham com IA de gigantes da tecnologia, incluindo Microsoft, Google e Facebook.

Em sua carta, os signatários destacam as muitas questões das tecnologias atuais de IA que tornam tão perigosa a previsão de crimes.

O principal entre as preocupações é o viés racial bem documentado dos algoritmos. Todo sistema de reconhecimento facial atual é mais preciso ao detectar homens brancos e frequentemente sinaliza incorretamente os membros da comunidade BAME como criminosos com mais frequência quando usados ​​em um ambiente de aplicação da lei.

No entanto, mesmo que as imprecisões nos algoritmos de reconhecimento facial sejam abordadas, os pesquisadores destacam os problemas com o sistema de justiça atual que foram destacados nas últimas semanas após o assassinato de George Floyd.

Entre os co-autores do artigo em disputa está Jonathan W. Korn, Ph.D. aluno destacado como veterano da polícia de Nova York. Korn diz que a IA que pode prever criminalidade seria “uma vantagem significativa para as agências policiais”.

Embora esse sistema facilite a vida dos policiais, isso o fará à custa da privacidade e da automação do perfil racial.

“Os programas de aprendizado de máquina não são neutros; agendas de pesquisa e conjuntos de dados com os quais trabalham frequentemente herdam crenças culturais dominantes sobre o mundo “, alertam os autores da carta.

“A aceitação acrítica de suposições padrão inevitavelmente leva ao design discriminatório em sistemas algorítmicos, reproduzindo idéias que normalizam hierarquias sociais e legitimam a violência contra grupos marginalizados”.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here