Comissão Europeia propõe regulamentação mais rígida sobre inteligência artificial

O Globo, com agências internacionais
·4 minuto de leitura

BRUXELAS — A Comissão Europeia anunciou, nesta quarta-feira, um projeto rígido de regras sobre o uso de inteligência artificial (IA), incluindo a proibição da maior parte de instrumentos de vigilância. A iniciativa faz parte de um esforço para definir padrões globais a uma tecnologia-chave, dominada pela China e pelos Estados Unidos.

As empresas que violarem as regras poderão ser multadas em até 6% de seu faturamento global ou US$ 36 milhões. Valerá a punição mais alta. O texto define ainda salvaguardas rígidas para aplicações IA consideradas de alto risco.

Grupos de direitos civis, no entanto, alertaram que há brechas na proposta que podem abrir espaço para o abuso da tecnologia por governos repressivos.

"Na inteligência artificial, a confiança é uma obrigação, não algo desejável. Com essas regras históricas, a UE está liderando o desenvolvimento de novas normas globais para garantir que a IA seja confiável", destacou a chefe de tecnologia europeia, Margrethe Vestager, em um comunicado.

O projeto estabelece limites ao uso de inteligência artificial em uma série de atividades, desde carros autônomos até decisões de contratação, seleção de matrículas escolares e pontuação em exames.

Também trata do uso de inteligência artificial pela aplicação da lei e sistemas judiciais, áreas consideradas de alto risco porque podem ameaçar a segurança das pessoas ou os direitos fundamentais.

Os aplicativos de IA de alto risco usados em recrutamento, infraestrutura crítica, pontuação de crédito, migração e aplicação da lei estarão sujeitos a salvaguardas rígidas.

Alguns usos seriam totalmente proibidos, incluindo o reconhecimento facial ao vivo em espaços públicos, embora houvesse algumas isenções para segurança nacional e outros fins.

As regras têm implicações de longo alcance para grandes empresas de tecnologia, incluindo Amazon, Google, Facebook e Microsoft, que investiram recursos no desenvolvimento de inteligência artificial, mas também para várias outras empresas que usam a tecnologia em saúde, seguros e finanças.

Os governos têm usado versões da tecnologia na justiça criminal e na alocação de serviços públicos.

Segundo o chefe industrial europeu ,Thierry Breton, as regras visam dissipar mitos e equívocos sobre IA.

— Por trás do termo inteligência artificial, existem crenças populares e temores que há muito são transmitidos pela indústria cinematográfica. Devemos navegar entre tudo isso e não estigmatizar a tecnologia — disse Breton em entrevista coletiva.

Dilemas éticos

A IA, na qual as máquinas são treinadas para aprender a realizar tarefas por conta própria, estudando grandes volumes de dados, é vista por tecnólogos, líderes empresariais e funcionários do governo como uma das tecnologias mais transformadoras do mundo.

Mas, à medida que os sistemas se tornam mais sofisticados, pode ser mais difícil determinar por que a tecnologia está tomando uma decisão, um problema que pode piorar à medida que os computadores se tornam mais poderosos.

Os pesquisadores levantam questões éticas sobre seu uso, sugerindo que ele poderia perpetuar os preconceitos existentes na sociedade, invadir a privacidade ou resultar na automatização de mais empregos.

Ao apresentar o projeto de regras, a União Europeia está tentando se estabelecer como o cão de guarda mais agressivo do mundo da indústria de tecnologia. O bloco já promulgou os regulamentos de privacidade de dados mais abrangentes do mundo e também está debatendo leis antitruste e de moderação de conteúdo adicionais.

Em Washington, os riscos da inteligência artificial também estão sendo considerados. Esta semana, a Comissão de Comércio Federal alertou contra a venda de sistemas de inteligência artificial que usam algoritmos com preconceito racial ou que podem “negar às pessoas emprego, moradia, crédito, seguro ou outros benefícios”.

Projeto não satisfaz empresas nem ONGs

O projeto gerou reações negativas tanto por parte de grupos de tecnologia que atuam no setor quanto por representantes de ONGs de proteção de direitos dos cidadãos europeus.

Na avaliação do grupo de lobby de tecnologia CCIA, as regras não deveriam criar mais burocracia para empresas e usuários.

— A IA será fundamental para a recuperação econômica da Europa e sua competitividade futura. No entanto, a regulamentação por si só não fará da UE um líder em IA — disse o vice-presidente da CCIA, Christian Borggreen.

A European Digital Rights, rede de ONGs que defendem o direito digital, apontou lacunas preocupantes na proposta.

— O projeto de lei não proíbe a extensão total dos usos inaceitáveis de IA e, em particular, todas as formas de vigilância biométrica em massa. Isso deixa uma lacuna preocupante para tecnologias discriminatórias e de vigilância usadas por governos e empresas — disse Sarah Chander, da European Digital Rights.

O legislador do Partido Verde no Parlamento Europeu, Patrick Breyer, também criticou a proposta:

— A tecnologia de vigilância biométrica e de massa, perfil e previsão comportamental em nossos espaços públicos mina nossas liberdades e ameaça nossas sociedades abertas. Os requisitos processuais propostos são uma mera cortina de fumaça.

A Comissão Europeia terá de discutir os detalhes com os governos nacionais da União Europeia e no Parlamento Europeu antes que as regras possam entrar em vigor.

—Isso pode levar anos marcados por intenso lobby de empresas e até de governos estrangeiros — disse Patrick Van Eecke, sócio e chefe da prática cibernética europeia do escritório de advocacia Cooley.