Moderação global, impacto local: uma série sobre a moderação de conteúdo no Sul Global

Imagem de domínio público.

Este artigo foi escrito por Michael Karanicolas, membro residente da Faculdade de Direito de Yale, onde lidera a Iniciativa Wikimedia sobre Mediadores e Informação como parte do Projeto Sociedade da Informação. É o primeiro de uma série de artigos publicados pela iniciativa para capturar perspectivas sobre os impactos globais das decisões de moderação de conteúdo das plataformas. Você pode encontrar o autor em @M_Karanicolas no Twitter, e ler todos os artigos da série do blog aqui.

A cada minuto, mais de 500 horas de vídeo são enviadas para o YouTube, 350.000 tuítes são enviados e 510.000 comentários são postados no Facebook. Gerenciar e fazer a curadoria deste conjunto de conteúdo é uma tarefa enorme e que confere às plataformas um enorme poder sobre os contornos do discurso on-line. Isso inclui não apenas decisões sobre se uma postagem específica deve ser excluída, mas também intervenções mais minuciosas e sutis que determinam sua viralidade. Desde decidir até que ponto permitir que ideias charlatãs sobre a COVID-19 criem raízes, até o grau de flexibilidade que é concedido ao Presidente dos Estados Unidos para quebrar as regras, a moderação de conteúdo apresenta desafios difíceis que estão no centro dos debates em torno da liberdade de expressão.

Mas embora muita tinta tenha sido derramada sobre o impacto das redes sociais na democracia dos Estados Unidos, essas decisões podem ter um impacto ainda maior em todo o mundo. Isso é particularmente verdadeiro em lugares onde o acesso à mídia tradicional é limitado, dando às plataformas um monopólio virtual na formação do discurso público. Uma plataforma que não tome medidas contra o discurso de ódio pode ser fundamental para desencadear uma perseguição local ou até mesmo um genocídio. Uma plataforma que age de forma muito agressiva para remover suspeitas de “propaganda terrorista” pode acabar destruindo evidências de crimes de guerra.

O poder das plataformas sobre o discurso público é em parte o resultado de uma decisão consciente dos governos globais de terceirizar as funções de moderação on-line para esses atores do setor privado. Em todo o mundo, os governos estão fazendo demandas cada vez mais agressivas por plataformas para policiar conteúdos que consideram censuráveis. O material visado pode variar de fotos indecentes do rei da Tailândia a material considerado um insulto ao presidente fundador da Turquia. Em alguns casos, tais solicitações são fundamentadas em padrões legais locais, colocando as plataformas na difícil posição de ter que decidir como fazer cumprir uma lei do Paquistão, por exemplo, que seria manifestamente inconstitucional nos Estados Unidos. 

Na maioria dos casos, no entanto, as decisões de moderação não são baseadas em nenhum padrão legal, mas nas próprias diretrizes da comunidade elaboradas de forma privada pelas plataformas, que são notoriamente vagas e difíceis de compreender. Tudo isso leva a uma crítica falta de responsabilidade nos mecanismos que regem a liberdade de expressão on-line. E enquanto a percebida opacidade, inconsistência e hipocrisia das estruturas de moderação de conteúdo on-line podem parecer frustrantes para os americanos, para os usuários do mundo em desenvolvimento é muito pior.

Quase todas as maiores plataformas estão sediadas nos Estados Unidos. Isso significa não apenas que seus tomadores de decisão são mais acessíveis e receptivos à sua base de usuários americana do que aos internautas frustrados em Mianmar ou Uganda, mas também que suas políticas globais ainda são fortemente influenciadas pelas normas culturais americanas, particularmente a Primeira Emenda.

Embora as maiores plataformas tenham feito esforços para globalizar suas operações, ainda há um enorme desequilíbrio na capacidade de jornalistas, ativistas de direitos humanos e outras comunidades vulneráveis ​​de chegar à equipe dos EUA que decide o que pode e o que não pode dizer. Quando as plataformas se ramificam globalmente, elas tendem a recrutar funcionários que estão conectados às estruturas de poder existentes, em vez daqueles que dependem das plataformas como uma tábua de salvação longe das restrições repressivas ao discurso. Por exemplo, a pressão para reprimir o “conteúdo terrorista” conduz inevitavelmente a danos colaterais ao jornalismo ou ao discurso político legítimo, principalmente no mundo árabe. Ao estabelecer este cálculo, é muito mais provável que governos e ex-funcionários do governo tenham um lugar à mesa do que jornalistas ou ativistas dos direitos humanos. Da mesma forma, o governo israelense tem mais facilidade em comunicar seus desejos e necessidades ao Facebook do que, digamos, jornalistas e ONGs palestinos.

Nada disso visa minimizar o alcance e a escala do desafio que as plataformas enfrentam. Não é fácil desenvolver e aplicar políticas de conteúdo que levem em conta as necessidades totalmente diferentes de sua base global de usuários. As plataformas geralmente visam fornecer a todos uma experiência aproximadamente idêntica, incluindo expectativas semelhantes em relação aos limites do discurso permitido. Há uma clara tensão entre esse objetivo e os padrões legais, culturais e morais conflitantes em vigor nos muitos países onde operam. Mas a importância e o peso dessas decisões exigem que as plataformas obtenham esse equilíbrio e desenvolvam e apliquem políticas que reflitam adequadamente o seu papel no centro dos debates políticos da Rússia à África do Sul. Mesmo que as plataformas tenham crescido e se espalhado pelo mundo, o centro de gravidade desses debates continua girando em torno de Washington e São Francisco.

Este é o primeiro de uma série de artigos destinados a preencher a lacuna entre os debates políticos em andamento sobre moderação de conteúdo e as pessoas que são mais impactadas por eles, principalmente no sul global. Os autores são acadêmicos, ativistas da sociedade civil e jornalistas cujo trabalho está na vanguarda das decisões de conteúdo. Ao solicitar suas contribuições, oferecemos a eles uma relativa liberdade para priorizar as questões que consideravam mais sérias e importantes em relação à moderação de conteúdo e pedimos que apontassem áreas em que era necessário melhorar, principalmente no que diz respeito ao processo de moderação, envolvimento da comunidade e transparência. As questões que eles sinalizam incluem uma frustração comum com a natureza distante e opaca dos processos de tomada de decisão das plataformas, um desejo de que as plataformas trabalhem para uma melhor compreensão da dinâmica sociocultural local subjacente ao discurso on-line e um sentimento de que a abordagem das plataformas de moderação muitas vezes não refletia a importância de seu papel na facilitação do exercício dos direitos humanos fundamentais. Embora as diferentes vozes ofereçam uma perspectiva única, elas pintam um quadro comum de como a tomada de decisão das plataformas afeta suas vidas e da necessidade de fazer melhor, de acordo com o poder que as plataformas têm em definir os contornos do discurso global.

Em última análise, nossa esperança nesta série é lançar luz sobre os impactos das decisões das plataformas em todo o mundo e fornecer orientação sobre como as plataformas de rede social podem fazer um trabalho melhor no desenvolvimento e aplicação de estruturas de moderação que reflitam suas necessidades e valores de seus diversos usuários globais.

Inicie uma conversa

Colaboradores, favor realizar Entrar »

Por uma boa conversa...

  • Por favor, trate as outras pessoas com respeito. Trate como deseja ser tratado. Comentários que contenham mensagens de ódio, linguagem inadequada ou ataques pessoais não serão aprovados. Seja razoável.