Sociedade

Quais os limites da moderação de conteúdos e liberdade de expressão online?

Por Brasil de Fato –

A corregulação surge como alternativa para limitar o poder das plataformas, garantir direitos e preservar a democracia

No início de julho, o site de humor Sensacionalista recebeu um aviso do Facebook de que uma página do site nesta plataforma poderia ser retirada do ar por “violações contínuas dos padrões da comunidade”. No mês anterior, uma piada publicada na página havia sido removida e, posteriormente, republicada com circulação reduzida.

A justificativa para a remoção, mais uma vez genérica, foi que o conteúdo havia sido classificado como “falso” por um “verificador independente”. Em posicionamento enviado ao jornal O Globo, a empresa respondeu que o aviso prévio era enviado para permitir que a página pudesse apelar caso houvesse algum equívoco.

Ponte Jornalismo teve menos sorte. O veículo, contemplado com o Prêmio Vladimir Herzog de Direitos Humanos por duas vezes em reconhecimento à cobertura sobre o tema, enfrenta problemas de remoção e outras formas de moderação de conteúdo desde que foi criado, em 2014. O problema vem se tornando mais frequente nos últimos anos.

Em setembro de 2019, o vídeo da reportagem “Jovem negro é amarrado nu, agredido e filmado em supermercado de SP” foi removido pelo YouTube, que alegou que o conteúdo violava “as políticas do YouTube sobre nudez ou conteúdo sexual”. Conteúdo similar, no entanto, foi publicado pelo jornal O Estado de S. Paulo e permanece no ar, apenas com o aviso de que o conteúdo “pode ser impróprio a alguns usuários”.

De lá para cá, a Ponte registrou vários episódios de remoção de conteúdos. Alguns foram republicados depois de denúncias feitas de forma pública. Mas as punições ao veículo foram além: sua página chegou a ser bloqueada por oito dias consecutivos e seus vídeos deixaram de ser monetizados, atingindo uma das principais formas de ganho financeiro para os veículos de mídia independentes.

O Intervozes também teve conteúdo removido no YouTube. Sob a alegação de que violavam direitos autorais, o Google, dono da plataforma, removeu vídeos que apresentavam pequenos trechos de programas de TV com a finalidade de análise crítica do conteúdo da mídia, o que é permitido pelas normas brasileiras de direitos autorais.

Os três casos evidenciam as limitações à liberdade de expressão que acontecem a partir da moderação privada de conteúdos que é feita pelas grandes plataformas de internet, sem controle público e transparência. 

E apontam para a importância de avançarmos na discussão sobre formas de regular as grandes plataformas de internet, como propõe o documento “Padrões para uma regulação democrática das grandes plataformas que garanta a liberdade de expressão online e uma Internet livre e aberta“. Resultado da formulação coletiva de organizações da sociedade civil, entre elas o Intervozes, o Instituto Brasileiro de Defesa do Consumidor (Idec) e o Observatorio Latinoamericano de Regulación, Medios y Convergencia (Observacom), e de especialistas e acadêmicos latino-americanos, o documento foi aprimorado a partir de uma consulta pública aberta ao longo de quatro meses, com discussões realizadas em países como Brasil, Argentina, Bolívia, Estados Unidos, México, Peru e Uruguai, e conta com a adesão de diversas entidades da sociedade civil e acadêmicas.

Terceira via

O documento apresenta uma perspectiva latino-americana para que os processos de moderação de conteúdo já em curso sejam compatíveis com os padrões internacionais de direitos humanos. Para isso, apresenta a corregulação como terceiro caminho, alternativo tanto à autorregulação quanto à regulação estatal autoritária.

A primeira é exercida de forma privada pelas plataformas, sem o devido controle público, conferindo um poder desproporcional a empresas que possuem um poder de mercado tão grande que as colocam em situação de quase monopólio. Já a regulação estatal feita sem a devida participação social pode apresentar sérios riscos à liberdade de expressão e à privacidade dos usuários.

A corregulação, ao contrário, visa ao estabelecimento de controles democráticos sobre as grandes plataformas de internet. 

Ela conjuga diretrizes e resultados que deverão ser alcançados pelas empresas, com aplicação direta por parte das mesmas, e um processo de supervisão feito por um organismo idôneo, com garantias de autonomia, independente de governos e empresas e passíveis de enforcement. Tudo isso feito por meio de legislações que sejam fruto de discussão e de participação social.

Essa perspectiva regulatória é justificada pelo caráter público que adquiriram as grandes plataformas de internet, que cada vez mais são capazes de influenciar o debate público, muitas vezes a partir de perspectivas discriminatórias, e até mesmo o resultado de eleições, a partir do funcionamento de seus algoritmos de priorização de conteúdo, do uso intensivo dos dados pessoais e das políticas de uso que são utilizadas na justificativa de moderação de conteúdo.

Transparência e autodeterminação informativa

A proposta de corregulação visa, por um lado, oferecer maior transparência aos usuários, aos pesquisadores e aos formuladores de políticas públicas sobre os termos de uso, as políticas de comunidade, o funcionamento dos algoritmos e o modo como impactam no acesso à informação e as ações de moderação de conteúdo, incluindo suas justificativas. Além de oferecer informações mais precisas a seus usuários, as plataformas deveriam também publicar relatórios periódicos de transparência que informem à sociedade de maneira detalhada sobre suas políticas e todas as medidas de moderação realizadas.

Por outro lado, a proposta objetiva diminuir o poder das grandes plataformas globais, aumentando o empoderamento de seus usuários. 

Ao receber informações, os usuários deveriam ter o direito de saber e definir quais de seus dados pessoais são coletados e tratados e como isso é feito, o que o documento chama de autodeterminação informativa. Deveriam também ter o direito de filtrar o conteúdo a partir de suas próprias preferências.

Já ao publicar informações, os usuários deveriam ter à disposição mecanismos como o devido processo, que prevê que qualquer medida de restrição de conteúdos deve ser notificada de maneira prévia e com direito à apelação, a menos que seja conteúdo ilegal ou que haja a possibilidade de dano grave, iminente e irreparável. Deveriam também ter o direito à apelação e defesa, para evitar qualquer tipo de censura prévia ou posterior.

A remoção de conteúdos feita sem o devido processo, a partir de decisões pouco transparentes e que muitas vezes não analisam o conteúdo dentro do contexto, limita de forma desproporcional o trabalho jornalístico, a possibilidade de reflexões que visam à crítica e à denúncia social, e o direito à liberdade de expressão.

*Olívia Bandeira e Gyssele Mendes são coordenadoras executivas do Intervozes.

Fonte: BdF Rio de Janeiro

Edição: Mariana Pitasse e Rodrigo Chagas

#Envolverde

apoie