Moraes vai na contramão do governo Lula e defende lei enxuta sobre big techs

***ARQUIVO***RIO DE JANEIRO, RJ, 13.03.2023 - O ministro Alexandre de Moraes, do STF. (Foto: Eduardo Anizelli/Folhapress)
***ARQUIVO***RIO DE JANEIRO, RJ, 13.03.2023 - O ministro Alexandre de Moraes, do STF. (Foto: Eduardo Anizelli/Folhapress)

SÃO PAULO, SP (FOLHAPRESS) - Na contramão das discussões do governo Lula (PT), o presidente do TSE (Tribunal Superior Eleitoral), ministro Alexandre de Moraes, defende uma regulação de internet "sintética" e "enxuta".

Enquanto o governo desenha uma legislação ampla, nos moldes da Lei dos Serviços Digitais, em vigor na União Europeia desde fevereiro, Moraes disse a interlocutores que uma regulação muito complexa não seria eficaz e teria dificuldade de ser aprovada no Congresso.

Segundo o ministro, é preciso combinar a autorregulação das plataformas com uma normatização sintética. O governo estabeleceria apenas alguns padrões básicos que balizariam a atuação das empresas.

As plataformas replicariam as políticas que adotam para conteúdo com pornografia, pedofilia e violação de direitos autorais para postagens que violem a Lei do Estado Democrático e discurso de ódio. E o governo fiscalizaria se as empresas estão cumprindo suas próprias diretrizes.

Nas reuniões do grupo de trabalho com as plataformas criado por Moraes, o secretário-geral do TSE, José Levi, também tem insistido na necessidade de se estabelecerem regras simples, apenas ampliando políticas de moderação já adotadas pelas empresas.

Mas o deputado Orlando Silva (PC do B-SP), relator do PL das Fake News, que deve incorporar a proposta do Executivo, trabalha com uma regulação que incorpora, além de normas de transparência e responsabilização, extensão da imunidade parlamentar ao ambiente online, financiamento de conteúdo jornalístico por parte das empresas, regras de publicidade online e criação de um órgão regulatório.

O Planalto investe na responsabilização civil das plataformas por conteúdo que ameaça ou pede a ruptura institucional, estimula a violência para deposição do governo ou incita animosidade entre as Forças Armadas e os Poderes.

O texto também proíbe conteúdo que viole o ECA (Estatuto da Criança e do Adolescente) mesmo antes de ordem judicial. No caso da legislação que protege os menores de 18 anos, já há precedente jurídico de decisões que vão nessa linha.

A proposta também estabelece que, semestralmente, as empresas teriam de publicar um relatório sobre o chamado "dever de cuidado", especificando denúncias sobre conteúdo supostamente ilegal, remoções de postagens que violam a lei e medidas de mitigação para isso. Os números passariam por uma auditoria independente.

As companhias não seriam punidas se deixassem passar um ou outro conteúdo ilegal, elas só seriam multadas se houvesse descumprimento generalizado das diretrizes implementadas pela lei.

Por fim, a proposta em discussão no Executivo também determina transparência algorítmica. Com isso, as plataformas teriam de explicar por que os usuários recebem determinadas recomendações e como funciona o sistema que determina o que os internautas veem e o que deixam de ver.

Uma medida polêmica é a que exige consentimento prévio dos usuários para o rastreamento de aplicativos e a coleta de dados por anunciantes. A medida é semelhante à regra de privacidade adotada pela Apple em seus aparelhos em 2021, que resultou em uma queda de cerca de US$ 10 bilhões no faturamento de aplicativos como Facebook, Instagram e Twitter.

Moraes acredita que a regulação deveria se focar em duas frentes. Por um lado, responsabilizar civilmente as empresas por conteúdo "monetizado, impulsionado ou que use algoritmo". E estender as regras de uso já aplicadas nos casos de violação de direitos autorais, pedofilia e pornografia para ataques à democracia e discurso de ódio.

As empresas ponderam, porém, que é muito diferente detectar e remover conteúdo pornográfico, com pedofilia ou violação de direito autoral por se tratar de uma avaliação objetiva, facilmente identificável.

Já no caso de ataque à democracia e discurso de ódio, a avaliação depende do contexto. Uma postagem ou vídeo com pornografia é muito mais fácil de identificar do que um que tenha um ataque contra a democracia, argumentam.

Além disso, segundo as big techs, determinar que elas serão responsabilizadas por qualquer conteúdo exibido em função de algoritmo não é viável, já que, praticamente, as redes sociais usam algoritmo para tudo. O mecanismo determina o que cada usuário vê em sua linha do tempo, que vídeo é recomendado, qual é a distribuição e destaque de cada conteúdo.

"Se quisermos regular tudo sobre fake news, vamos acabar não regulando nada", disse Moraes em conferência organizada pela FGV, IDP e Rede Globo na segunda-feira (13).

"Vamos começar replicando as regras das plataformas para conteúdo com pornografia, pedofilia e violação a direitos autorais; estender isso para conteúdo com discurso de ódio e ataques à democracia." Ele ressaltou a necessidade de fazer com que as empresas apliquem as próprias regras, "senão vamos enxugar gelo".