Mais moderação, menos moderação. Dependendo para quem você perguntar, a visão sobre se as redes sociais devem ser mais restritivas e tirar do ar determinados conteúdos e contas ou liberar praticamente tudo que for postado muda radicalmente.
“Tem defesas dos dois lados. Mas, nos últimos dois anos, a pressão em geral no Brasil é para que as redes moderem mais, e não menos”, observa Ivo Correa, advogado, professor do Insper e ex-secretário de Assuntos Jurídicos da Casa Civil da Presidência da República, quando atuou na elaboração e aprovação do Marco Civil da Internet. “Em relação à desinformação e às fake news relacionadas à Covid-19, por exemplo, houve uma pressão enorme para que as redes atualizassem suas políticas para coibir esse tipo de conteúdo.”
Divergências
Elas podem ser consultadas no texto original, mas em resumo, são: inadimplemento do usuário; criação de contas para assumir a identidade de terceiros ou enganar o público; contas geridas por computadores (os chamados robôs); práticas reiteradas previstas em uma lista de condutas proibidas (como nudez, desacordo com o Estatuto da Criança e do Adolescente, incitação de ato de violência, entre outros, mas sem citar a divulgação de informações falsas); e contas que ofereçam produtos ou serviços que violem patente, marca registrada, direito autoral ou outros direitos de propriedade intelectual.
A moderação de conteúdo pelas redes sociais é alvo de discussões no Brasil e no mundo — inclusive em outros projetos que já tramitam no Legislativo nacional — e está longe de uma solução unânime.
Como funciona hoje
O Marco Civil da Internet, lei de 2014 que regulamenta o uso da rede no Brasil, deixa nas mãos das plataformas a decisão sobre quais tipos de conteúdo são permitidos em seus espaços.
“Hoje as plataformas têm políticas diferentes, inclusive com diferentes níveis de transparência, sobre qual tipo de conteúdo é proibido”, afirma Artur Péricles Lima Monteiro, advogado e coordenador de liberdade de expressão do InternetLab.
Uma forma de começar a entender os limites de cada rede social é conferir seus termos de uso. Enquanto o Facebook proíbe expressamente nudez, o Only Fans aceita este tipo de conteúdo, exemplifica João Victor Archegas, pesquisador de Direito e Tecnologia do Instituto de Tecnologia e Sociedade (ITS).
“Essas plataformas são empresas privadas, que têm liberdade para criar seus próprios termos de uso e moderação de acordo com seus interesses econômicos”, explica Archegas. É nesse ponto que está a identidade de cada rede e a pluralidade de espaços disponíveis online, adiciona Monteiro, do InternetLab.
Se por um lado o Twitter derruba com frequência publicações que tragam informações falsas — e é pressionado pelos usuários a fazê-lo cada vez mais –, a rede Gab, por exemplo, levanta a bandeira da liberdade de expressão pela permissão irrestrita de opiniões, atraindo principalmente um público de extrema-direita.
“As plataformas precisam poder remover conteúdo mesmo que ele seja lícito para que elas possam criar ambientes diferentes entre si. Quando a MP retira essa possibilidade, na prática ela elimina esses espaços como eles existem hoje, e essa é uma forma de ferir a liberdade de expressão”, opina Monteiro.
“Elas [as redes] têm se movimentado no sentido de transformar os ambientes mais seguros para a participação de todas as pessoas, inclusive protegendo o espaço de expressão de grupos minoritários, que são frequentemente alvos de ataques nas redes”, detalha ele.
Perfeito não está
Mesmo quem critica o texto da Medida Provisória devolvida reconhece que o cenário atual ainda não é o ideal. “A ideia aqui não é defender cegamente a atuação das plataformas. Isso estaria incongruente com o trabalho do campo de direitos digitais, que por muito tempo foi justamente pensar em formas de fazer as plataformas prestarem contas e limitar, ou pelo menos estabelecer, parâmetros para sua atuação”, esclarece Monteiro. Ele afirma que há sim situações em que a remoção de conteúdos ou contas pode ser considerada censura, e que é necessário que haja fiscalização para isso.
Uma regulação conjunta entre redes e Estado poderia ser uma saída, opina Archegas, do ITS. “Isso poderia vir na forma de estipulação de parâmetros de transparência e procedimentos de revisão das decisões das empresas de tecnologia”, exemplifica ele.
Já Correa, do Insper, explica que atualmente há previsão legal para esses casos. “Hoje, na lógica do Marco Civil, as redes podem moderar conteúdo à vontade e vão responder judicialmente se abusarem”, esclarece, lembrando que o próprio deputado federal Eduardo Bolsonaro (PSL-SP) teve uma postagem restaurada pelo Facebook depois de contestar a decisão da rede de apagá-la.
O que dizem as plataformas
As principais redes sociais que seriam afetadas pela Medida Provisória — e também pelos projetos de lei que seguem em tramitação — foram unânimes em criticar as tentativas do governo federal de restringir a autonomia das plataformas na remoção de conteúdos.
Em nota enviada por e-mail, o YouTube afirma acreditar que a “flexibilidade para atualizar e aplicar regras é essencial para que o YouTube possa colaborar com a construção da Internet livre e aberta que conhecemos e que transforma a vida de milhões de brasileiros todos os dias.”
“Destacamos que nossas políticas de comunidade são resultado de um processo de desenvolvimento colaborativo com especialistas técnicos, sociedade civil e academia. Essas diretrizes existem para que possamos garantir uma boa experiência de uso e preservar a diversidade de vozes e ideias características da plataforma”, escreve a plataforma por meio da assessoria de imprensa.
Já o Facebook, que é dono também do Instagram (e do WhatsApp, que não seria afetado pela MP por ser um serviço de mensagens e ligações), afirma que “essa medida provisória limita de forma significativa a capacidade de conter abusos nas nossas plataformas, algo fundamental para oferecer às pessoas um espaço seguro de expressão e conexão online. O Facebook concorda com a manifestação de diversos especialistas e juristas, que afirmam que a proposta viola direitos e garantias constitucionais.”
O Twitter afirmou em nota que tem regras que “determinam os conteúdos e comportamentos que são permitidos em nosso serviço. As medidas de moderação que tomamos são baseadas nessas regras, que estão disponíveis publicamente e têm como objetivo permitir que as pessoas participem da conversa pública com liberdade e segurança”.
A rede acrescenta que “no trabalho de análise de conteúdos e comportamentos que eventualmente violem as nossas regras, contamos com as denúncias das pessoas e também com um crescente investimento e esforço em detectar proativamente potenciais infrações”.
O Twitter diz ainda que as opções de medidas restritivas “vão desde a inclusão de rótulos e avisos em Tweets com informações questionáveis ou enganosas, por exemplo, até a suspensão permanente de uma conta.” e que as pessoas podem recorrer “via formulário, de medidas adotadas, para uma revisão à luz das regras da plataforma”.
Sobre a MP, o Twitter divulgou uma nota afirmando que o Marco Civil da Internet foi “fruto de um amplo e democrático processo de discussão com a sociedade civil” e que a proposição da Medida Provisória “contraria tudo o que esse processo foi e o que com ele foi construído”.
Fonte: CNN
Comente este post