Microsoft vai eliminar ferramentas de reconhecimento facial a partir deste ano

Durante anos, ativistas e acadêmicos levantaram preocupações de que um software de reconhecimento facial que afirma ser capaz de identificar idade, sexo e estado emocional de uma pessoa pode ser tendencioso, não confiável ou invasivo – e, por isso, não deve ser vendido.

Google: Engenheiro que vê alma e consciência na inteligência artificial do Google é afastado; entenda

TikTok: aplicativo lança ferramentas para ajudar usuário a controlar tempo de tela

Reconhecendo algumas dessas críticas, a Microsoft planeja remover esses recursos de seus serviço de inteligência artificial para detectar, analisar e reconhecer rostos. Eles deixarão de estar disponíveis para novos usuários esta semana e serão eliminados gradualmente para usuários existentes durante este ano.

As mudanças fazem parte de um esforço da empresa em adotar controles mais rígidos de seus produtos de inteligência artificial. Após uma revisão de dois anos, uma equipe da Microsoft desenvolveu o “Responsible AI Standard”, um documento de 27 páginas que estabelece requisitos para sistemas de inteligência artificial para garantir que eles não tenham um impacto prejudicial na sociedade.

Tais requisitos incluem garantir que os sistemas forneçam “soluções válidas para os problemas que foram projetados para serem resolvidos” e “uma qualidade de serviço semelhante para grupos demográficos identificados, incluindo aqueles marginalizados”.

Agora, antes de serem lançadas, as tecnologias que seriam usadas para tomar decisões importantes sobre o acesso de uma pessoa a emprego, educação, assistência médica ou serviços financeiros estarão sujeitas a uma revisão. Esta será feita por uma equipe liderada por Natasha Crampton, executiva-chefe responsável pela IA na Microsoft.

Houve preocupações crescentes na empresa em relação à ferramenta de reconhecimento de emoções, que rotulou a expressão de pessoas como raiva, desprezo, nojo, medo, felicidade, tristeza ou surpresa.

- Há uma enorme quantidade de variação cultural, geográfica e individual na maneira como nos expressamos - disse Natasha.

Segundo ela, isso levou a questionamentos sobre confiabilidade, juntamente com as questões maiores sobre se “a expressão facial é um indicador confiável de seu estado emocional interior”.

As ferramentas de análise de idade e gênero que estão sendo eliminadas – juntamente com outras usadas para detectar atributos faciais, como cabelo e sorriso – podem ser úteis para interpretar imagens visuais para pessoas cegas ou com baixa visão, por exemplo, mas a empresa decidiu que era problemático tornar as ferramentas de criação de perfil disponíveis ao público em geral, afirmou a executiva.

Ela acrescentou ainda que o sistema classificava o gênero como binário, “e isso não é consistente com nossos valores”.

A Microsoft também vai adotar novos controles sobre seu recurso de reconhecimento facial usado para realizar verificações de identidade ou procurar uma pessoa em particular.

A Uber, por exemplo, usa o software em seu aplicativo para verificar se o rosto de um motorista corresponde ao ID registrado na conta desse condutor. Os desenvolvedores de software que desejam usar a ferramenta de reconhecimento facial da Microsoft precisarão solicitar acesso e explicar como planejam implantá-la.

Regras mais rígidas para ferramentas de voz

Os usuários também deverão se inscrever e explicar como usarão outros sistemas de IA potencialmente abusivos, como o Custom Neural Voice. O serviço pode gerar uma impressão de voz humana, com base em uma amostra da fala de uma determinada pessoa, para que autores, por exemplo, possam criar versões sintéticas de sua voz para ler seus audiolivros em idiomas que não falam.

Por causa do possível uso indevido da ferramenta – para criar a impressão de que as pessoas disseram coisas que não falaram – os locutores devem passar por uma série de etapas para confirmar que o uso de sua voz está autorizado, e as gravações incluem marcas d'água detectáveis ​​pela Microsoft.

-Estamos tomando medidas concretas para cumprir nossos princípios de IA - disse Natasha, que trabalha como advogada na Microsoft há 11 anos e ingressou no grupo ético de IA em 2018.

- Será uma grande jornada - admitiu.

Série de tropeços

A Microsoft, como outras empresas de tecnologia, teve tropeços com seus produtos de inteligência artificial. Em 2016, lançou um chatbot no Twitter, chamado Tay, que foi projetado para aprender “compreensão conversacional” dos usuários com quem interagia. O bot rapidamente começou a divulgar tuítes racistas e ofensivos, e a Microsoft teve que eliminá-lo.

Em 2020, os pesquisadores descobriram que as ferramentas de conversão de fala em texto desenvolvidas pela Microsoft, Apple, Google, IBM e Amazon não funcionavam tão bem para os negros. O sistema da Microsoft foi o melhor do grupo, mas identificou erroneamente 15% das palavras para pessoas brancas, em comparação com 27% para pessoas negras.

A empresa havia coletado diversos dados de fala para treinar seu sistema de IA, mas não entendia o quão diversa a linguagem poderia ser. Por isso, contratou um especialista em sociolinguística da Universidade de Washington para explicar as variedades linguísticas que a Microsoft precisava conhecer. Ele foi além da demografia e da variedade regional, em busca de como as pessoas falam em ambientes formais e informais.

- Pensar em raça como um fator determinante de como alguém fala é realmente um pouco enganador. O que aprendemos em consulta com o especialista é que, na verdade, uma enorme variedade de fatores afeta a variedade linguística - admitiu Natasha.

Danos da inteligência artificial em debate

Um debate intenso sobre os possíveis danos da IA ​​está em andamento há anos na comunidade de tecnologia, alimentado por erros e mais erros que têm consequências reais na vida das pessoas, como algoritmos que determinam se elas recebem ou não benefícios de bem-estar.

As autoridades fiscais holandesas erroneamente retiraram benefícios de creche de famílias carentes quando um algoritmo falho penalizou pessoas com dupla nacionalidade.

O software automatizado para reconhecer e analisar rostos tem sido particularmente controverso. No ano passado, o Facebook encerrou seu sistema de uma década para identificar pessoas em fotos. O vice-presidente de inteligência artificial da empresa citou as “muitas preocupações sobre o lugar da tecnologia de reconhecimento facial na sociedade”.

Vários homens negros foram presos injustamente após falhas nas ferramentas de reconhecimento facial. E em 2020, ao mesmo tempo que os protestos Black Lives Matter se intensificaram após o assassinato de George Floyd em Minneapolis, Amazon e Microsoft divulgaram novas regras sobre o uso de seus produtos de reconhecimento facial pela polícia nos Estados Unidos, afirmando que leis mais claras sobre o uso desses sistemas eram necessárias.

Desde então, Washington e Massachusetts aprovaram regulamentos exigindo, entre outras coisas, supervisão judicial sobre o uso de ferramentas de reconhecimento facial pela polícia.

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos