Chefe da polícia de Detroit diz que o reconhecimento facial da IA ​​não funciona “96% do tempo”

O chefe da polícia de Detroit, James Craig, reconheceu que o reconhecimento facial com inteligência artificial não funciona na grande maioria das vezes.

“Se usássemos o software apenas [para identificação do sujeito], não resolveríamos o caso em 95 a 97% do tempo”, disse Craig. “Se fôssemos usar a tecnologia por si só para identificar alguém, eu diria que 96% das vezes isso seria errado.”

Os comentários de Craig chegam apenas alguns dias depois que a ACLU (União Americana das Liberdades Civis) apresentou uma queixa contra a polícia de Detroit após a terrível prisão indevida do negro Robert Williams devido a um erro de reconhecimento facial.

A Polícia de Detroit prendeu a Williams por supostamente roubar cinco relógios avaliados em US $ 3800 em uma loja em outubro de 2018. Uma imagem borrada do CCTV foi combinada por um algoritmo de reconhecimento facial à foto da carteira de motorista de Williams.

Sabe-se que os algoritmos atuais de IA têm um problema de racismo. Estudos extensos mostraram repetidamente que os algoritmos de reconhecimento facial são quase 100% precisos quando usados ​​em homens brancos, mas têm sérios problemas quando se trata de cores de pele mais escuras e sexo mais justo.

Esse problema de racismo foi mostrado novamente nesta semana, depois que uma IA projetada para melhorar fotos borradas, como as que geralmente são tiradas de câmeras de segurança, foi aplicada a várias pessoas das comunidades BAME.

O chefe da polícia de Detroit, James Craig, reconheceu que o reconhecimento facial com inteligência artificial não funciona na grande maioria das vezes.

“Se usássemos o software apenas [para identificação do sujeito], não resolveríamos o caso em 95 a 97% do tempo”, disse Craig. “Se fôssemos usar a tecnologia por si só para identificar alguém, eu diria que 96% das vezes isso seria errado.”

Os comentários de Craig chegam apenas alguns dias depois que a ACLU (União Americana das Liberdades Civis) apresentou uma queixa contra a polícia de Detroit após a terrível prisão indevida do negro Robert Williams devido a um erro de reconhecimento facial.

A Polícia de Detroit prendeu a Williams por supostamente roubar cinco relógios avaliados em US $ 3800 em uma loja em outubro de 2018. Uma imagem borrada do CCTV foi combinada por um algoritmo de reconhecimento facial à foto da carteira de motorista de Williams.

Sabe-se que os algoritmos atuais de IA têm um problema de racismo. Estudos extensos mostraram repetidamente que os algoritmos de reconhecimento facial são quase 100% precisos quando usados ​​em homens brancos, mas têm sérios problemas quando se trata de cores de pele mais escuras e sexo mais justo.

Esse problema de racismo foi mostrado novamente nesta semana, depois que uma IA projetada para melhorar fotos borradas, como as que geralmente são tiradas de câmeras de segurança, foi aplicada a várias pessoas das comunidades BAME.

E alguns outros exemplos: Na semana passada, Boston seguiu os passos de um número crescente de cidades como San Francisco, Oakland e Califórnia na proibição da tecnologia de reconhecimento facial por questões de direitos humanos.

“O reconhecimento facial é inerentemente perigoso e inerentemente opressivo. Não pode ser reformado ou regulamentado. Ele deve ser abolido ”, disse Evan Greer, vice-diretor do grupo de direitos digitais Fight for the Future.

Do outro lado da lagoa, os testes de reconhecimento facial no Reino Unido até agora também não foram nada menos que uma falha completa. Um teste inicial no Carnaval de Notting Hill de 2016 levou a que nenhuma pessoa fosse identificada. Um julgamento de acompanhamento no ano seguinte não levou a partidas legítimas, mas a 35 falsos positivos.

Um relatório independente dos testes de reconhecimento facial da Polícia de Met, conduzido no ano passado pelo professor Peter Fussey e pelo Dr. Daragh Murray, concluiu que a precisão era apenas verificável em apenas 19% dos casos.

O próximo passo assustador da IA ​​na vigilância é usá-la para prever crimes. Após as notícias de uma publicação iminente chamada ‘Um modelo de rede neural profunda para prever a criminalidade usando o processamento de imagens’, mais de 1000 especialistas assinaram uma carta aberta na semana passada, opondo-se ao uso da IA ​​para tais fins.

“Os programas de aprendizado de máquina não são neutros; agendas de pesquisa e conjuntos de dados com os quais trabalham frequentemente herdam crenças culturais dominantes sobre o mundo “, alertaram os autores da carta. O reconhecimento do chefe de polícia de Detroit de que as atuais tecnologias de reconhecimento facial não funcionam em cerca de 96% dos casos deve ser motivo suficiente para interromper seu uso, especialmente para a aplicação da lei, pelo menos até que melhorias sérias sejam feitas.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here