Tecnologia de reconhecimento facial apresenta erros, aponta estudo dos EUA

Os sistemas de reconhecimento facial podem produzir resultados extremamente imprecisos, especialmente para não-brancos, de acordo com um estudo do governo dos Estados Unidos

Os sistemas de reconhecimento facial podem produzir resultados extremamente imprecisos, especialmente para não-brancos, de acordo com um estudo do governo dos Estados Unidos publicado nesta quinta-feira que provavelmente suscita novas dúvidas sobre a implantação da tecnologia de inteligência artificial.

O estudo de dezenas de algoritmos de reconhecimento facial mostrou taxas de "falso positivo" para asiáticos e afro-americanos até 100 vezes mais altos do que para brancos.

Pesquisadores do Instituto Nacional de Padrões e Tecnologia (NIST), um centro de pesquisa do governo, também descobriram que dois algoritmos atribuíam o sexo errado às mulheres negras quase 35% das vezes.

O estudo foi realizado em meio à aplicação generalizada do reconhecimento facial em aeroportos, segurança nas fronteiras, bancos, lojas comerciais, escolas e tecnologia pessoal, assim como para desbloquear smartphones.

Alguns ativistas e pesquisadores afirmam que o potencial de erros é muito grande, que isso pode resultar na prisão de pessoas inocentes e que a tecnologia pode ser usada para criar bancos de dados que podem ser invadidos ou usados incorretamente.

O estudo do NIST encontrou tanto "falsos positivos", nos quais um indivíduo é identificado erroneamente, como "falsos negativos", nos quais os algoritmos não conseguem definir com precisão a identidade de uma pessoa a partir de uma base de dados.

"Um falso negativo poderia ser simplesmente um inconveniente. A pessoa não pode acessar seu telefone, por exemplo, mas o problema geralmente pode ser contornado com uma segunda tentativa", disse o pesquisador Patrick Grother.

"Mas um falso positivo justifica uma maior análise", destacou.

O estudo constatou que os sistemas de reconhecimento facial desenvolvidos nos Estados Unidos apresentam taxas de erro mais altas para asiáticos, negros e nativos americanos.

O grupo demográfico de indígenas americanos apresentou as maiores taxas de falsos positivos.

No entanto, alguns algoritmos desenvolvidos em países asiáticos produziram taxas de precisão semelhantes para a coincidência entre rostos asiáticos e caucasianos, que segundo os pesquisadores sugere que essas disparidades podem ser corrigidas.

Jay Stanley, da União das Liberdades Civis dos Estados Unidos, disse que o novo estudo mostra que a tecnologia não está pronta para ampla implantação.

"Inclusive os cientistas do governo agora estão confirmando que esta tecnologia de vigilância é defeituosa e parcial", destacou Stanley num comunicado.

"Uma coincidência falsa pode levar uma pessoa a perder seu voo, seja submetida a longos interrogatórios, colocada em listas de vigilância, seja detida por motivos errados ou algo pior".