Como as maiores empresas de tecnologia estão silenciosamente cerceando a liberdade de expressão no Oriente Médio

Desenho por Omar Momani para o 7iber (CC BY-NC-ND 2.0)

A publicação desse artigo deriva de uma parceria editorial entre a Global Voices e o site Ranking Digital Rights

Após o atentado ao Charles Hebdo, em janeiro de 2015, um dos fundadores do Facebook e CEO da empresa, Mark Zuckerberg, postou uma mensagem refletindo sobre religião, liberdade de expressão e a linha editorial controversa da revista.

“Há alguns anos, um extremista no Paquistão lutou para que eu fosse condenado à morte, pois o Facebook havia se recusado a banir conteúdo sobre Maomé que o ofendeu.

Nos impusemos quanto a isso porque diferentes vozes, mesmo que às vezes sejam ofensivas, podem tornar o mundo um lugar melhor e mais interessante”, escreveu Zuckerberg em sua página.

Naquele mesmo mês, o Facebook concordou em restringir o acesso de um número indeterminado de páginas por “ofenderem o profeta Maomé” na Turquia, a pedido de autoridades locais.

A Turquia tem má fama por fazer inúmeros pedidos às empresas de internet para que removam conteúdo que viola leis locais, mas não é o único governo do Oriente Médio que recorre a esse tipo de tática para silenciar vozes críticas.

Se por um lado há um contingente de governos que, às vezes, solicitam diretamente a remoção de conteúdo (ao mesmo tempo que recorrem a pressões “mais leves” por outros meios), por outro, as falhas de gigantes da tecnologia em moderar o conteúdo na região representam um problema muito maior e mais complexo.

Abuso de mecanismos de denúncia

Em toda a região, mecanismos de “denúncia” das plataformas de redes sociais são usados de forma abusiva para silenciar críticos ao governo, grupos de minorias e pontos de vista e formas de expressão que não são considerados alinhados com as crenças da maioria sobre sociedade, religião e política.

Em 2016, o Facebook suspendeu várias páginas em língua árabe, bem como grupos dedicados ao ateísmo, após campanhas de denúncia em massa.

Tal medida foi efetiva em eliminar alguns dos poucos espaços (em alguns casos, o único) onde ateus e outras minorias podiam se encontrar e trocar experiências se expressando livremente acerca de assuntos relacionados à religião. Na região, o ateísmo permanece sendo um tabu que pode levar à perseguição, prisão e até mesmo à morte.

“[Denúncias abusivas] são um problema significativo”, afirma Jessica Anderson, uma gerente de projeto no site onlinecensorship.org, que documenta casos de conteúdos derrubados por plataformas de redes sociais.

“No Oriente Médio, assim como em outros lugares, documentamos casos de censura que resultam das ‘campanhas de denúncia’, que são esforços coordenados por muitos usuários para reportar uma página ou conteúdo.”

Mecanismos de denúncia são igualmente usados de forma abusiva por vozes pró-governo. No início do ano, o portal de notícias Middle East Eye relatou que diversos ativistas políticos do Egito tiveram suas páginas ou contas suspensas e suas transmissões ao vivo bloqueadas depois que foram denunciados por “trolls pró-governo”.

“O que vemos é que essas denúncias podem exacerbar desequilíbrios de poder existentes, dando força para que uma maioria ‘policie’ a minoria”, diz Anderson. “As consequências dessa questão podem ser severas: comunidades que já estão marginalizadas e oprimidas perdem acesso a benefícios das redes sociais como, por exemplo, ter um espaço para se organizarem, formarem uma rede e serem ouvidos.”

Impossibilidade de considerar os direitos dos usuários em contexto

Em maio desse ano, a Apple se juntou ao Facebook e Twitter (as redes sociais mais comentadas nesse âmbito)  quando o iTunes se recusou a carregar cinco músicas da banda libanesa Al-Rahel Al-Kabir. As canções zombavam do fundamentalismo religioso e da opressão política na região. 

Um representante do iTunes explicou que o Qanawat, um agregador de conteúdo local com endereço em Dubai e contratado pela Apple para gerenciar sua loja na região, decidiu não fazer o upload das músicas. Uma fonte anônima disse ao jornal libanês The Daily Star que o iTunes não sabia da decisão do Qanawat, que foi tomada com base nas “sensibilidades locais”. Em resposta a uma petição da ONG SMEX, localizada em Beirute e cujo trabalho foca em direitos digitais, e da própria banda, o iTunes acabou por realizar o upload das músicas em sua plataforma e prometeu trabalhar com outro agregador de conteúdo. 

Esse caso não só ilustra como as “sensibilidades locais” podem interferir em decisões sobre que tipo de conteúdo pode ser postado e permanecer on-line naquela região, como também mostra que companhias precisam agir com uma maior diligência quando tomarem decisões que possam afetar os direitos relacionados à liberdade de expressão de seus usuários.

Mohamad Najem, co-fundador da ONG SMEX, conversou com a Global Voices e relatou que tanto o Facebook quanto o Twitter possuem escritórios regionais nos Emirados Árabes, o que ele descreve como sendo um dos países “mais repressivos” do Oriente Médio.

“Trata-se de uma decisão empresarial que afeta a liberdade de expressão de forma negativa”, afirmou. Najem ainda expressou preocupação com a escolha de se ter um escritório num país como os Emirados Árabes, uma vez que isso “pode, às vezes, levar à imposição de normas sociais do Golfo” em toda uma região (árabe) que é “dinâmica e diferente”.

Localização, localização, localização

Os escritórios do Facebook e do Twitter nos Emirados Árabes têm competência para atuar no Oriente Médio e Norte da África, uma região que é étnica, cultural e linguisticamente diversa e que apresenta uma vasta gama de visões políticas e experiências. Quando empresas são pressionadas por governos opressores ou outros grupos poderosos a respeitar “sensibilidades locais” estão sendo cúmplices no processo de apagamento dessa diversidade.

“As plataformas parecem ser direcionadas por vozes mais altas e mais poderosas… No Oriente Médio, elas não conseguem enfrentar interesses fortes como os do governo”, relata Anderson.

O Facebook, por exemplo, demonstra disposição para cumprir as demandas de censura do governo turco. Ao longo dos anos, a empresa censurou críticas ao governo, à religião, a Ataturk (fundador da república), ativistas curdos, conteúdos LGBT e até mesmo uma iniciativa antirracista.

A cumplicidade do Facebook com esses pedidos parece estar profundamente enraizada. Conversei com um ativista turco dois anos atrás que me contou acreditar que a plataforma “estava se tornando uma mídia pró-governo”. Atualmente, o Facebook continua a cumprir essa demanda ao restringir o acesso de mais de 4.500 conteúdos dentro do país somente em 2017. A empresa não é transparente quanto ao número e taxa dos pedidos que cumpre.

“A maior deficiência quanto à forma como essas plataformas atuam em relação a pedidos de derrubada de conteúdo é a falta de compreensão dos contextos políticos. E ainda que haja alguma ideia sobre o que está acontecendo, não tenho tanta certeza, sempre há a devida diligência envolvida”, afirma Arzu Geybulla, um escritor freelance que cobre Turquia e Azerbaijão para a Global Voices. 

Em conferências, representantes do Facebook frequentemente se deparam com perguntas sobre as campanhas de denúncia em massa. Eles afirmam que o fato de uma postagem ou página ser alvo de várias denúncias não torna o processo de remoção automático. Contudo, oferecem pouquíssima informação sobre como, de fato, a empresa vê e responde a essas situações. A empresa analisa o conteúdo de forma pormenorizada? Os representantes do Facebook ainda dizem que consultam especialistas locais sobre essas questões, mas as especifidades dessas consultas permanecem obscuras.

O trabalho de moderação local, que decide o que está de acordo com os padrões legais do lugar, bem como com a própria política do Facebook, não é fácil. Anderson, do site onlinecensorship.org, conta: 

Content moderation is incredibly labor intensive. As the largest platforms continue to grow, these companies are attempting to moderate a staggering volume of content. Workers (who may not have adequate knowledge and training, and may not be well paid) have to make snap decisions about nuanced and culturally-specific content, leading to frequent mistakes and inconsistencies.

A moderação de conteúdo é incrivelmente trabalhosa. Como as maiores plataformas continuam a crescer, essas empresas estão tentando moderar um volume de conteúdo impressionante. Os funcionários (que podem não ter conhecimento adequado e treinamento, e muitas vezes não são bem pagos) têm que tomar decisões rápidas sobre conteúdos sutis ou que são culturalmente muito específicos, o que leva a erros frequentes e inconsistências.

Para ativistas e defensores dos direitos humanos na região, também é difícil saber quão grande é o problema devido à falta de transparência das corporações. Casos como o do iTunes podem estar ocorrendo mais do que é divulgado publicamente. Somente quando alguém denuncia estar sendo censurado é que essas práticas são realmente reveladas.

 

Inicie uma conversa

Colaboradores, favor realizar Entrar »

Por uma boa conversa...

  • Por favor, trate as outras pessoas com respeito. Trate como deseja ser tratado. Comentários que contenham mensagens de ódio, linguagem inadequada ou ataques pessoais não serão aprovados. Seja razoável.