Para a pesquisadora Clara Iglesias Keller, decisões de moderação de figuras políticas é resultado de falta de ação de governos na regulação das gigantes de mídias sociais.
A moderação de conteúdos nas redes sociais nunca esteve sob tantos holofotes. Impulsionado em parte pela desinformação sobre a pandemia, as decisões das plataformas de suspender ou banir os perfis do ex-presidente dos Estados Unidos, Donald Trump, aumentou o debate sobre o poder das plataformas digitais.
Para a especialista em políticas de digitalização Clara Iglesias Keller, coordenadora de estudos sobre desinformação digital no Instituto de Pesquisa de Mídias de Leibniz, na Alemanha, as decisões de moderação de figuras políticas é resultado de falta de ação de governos na regulação dessas empresas.
Em entrevista ao G1, Keller também falou sobre o poder econômico das companhias e sobre como isso influencia as decisões e o controle do discurso de usuários. Confira:
G1: O Facebook anunciou um teste no Brasil e mais dois países em que reduzirá a exibição de conteúdo considerado político pela plataforma. Isso se opõe à lógica de promover materiais que mais engajam?
Clara Keller: Em primeiro lugar, é uma decisão de negócios e o próprio Facebook menciona isso. Eles falam que há usuários que não querem interagir com tanto conteúdo político.
A justificativa é muito em torno de uma narrativa de interesses de negócios, mas ao mesmo tempo não dá para ignorar o contexto no debate público e de algumas iniciativas de governos ao redor do mundo.
É um teste que me gera preocupações sobre o grande poder que essas plataformas têm sobre o discurso, sobre o debate público, sobre o que pode ser dito e o que não pode ser dito.
Como dizer o que é político e o que não é? No anúncio diz que os próprios usuários vão ajudar a determinar isso, mas isso não é informação suficiente porque em algum momento alguém vai fazer uma arbitragem para decidir isso.
Outra preocupação também é a de silenciamento de grupos identitários, de silenciamento de determinados grupos políticos. Ao definir o que é político e o que não é, você deixa uma grande margem para classificar e essa decisão pode impactar a presença ou comunicação de determinado grupo.
G1: As ferramentas automatizadas de moderação têm a capacidade de fazer a distinção entre o que é conteúdo político e o que, não é?
Clara Keller: Essas ferramentas vêm evoluindo muito em termos de precisão. No entanto, o reconhecimento de contexto é fundamental para esse tipo de ação, e as ferramentas automatizadas ainda falham nisso.
Acho que essas ferramentas ainda deixam muito a desejar nesse sentido. Ao falar de bloqueio de conteúdo político, e nem sabemos o que isso vai significar, tenho tendência a ser cética em relação ao quão precisas elas sejam para essa função.
G1: As empresas costumam apontar para os seus termos de uso para justificar as decisões, você acha que os documentos são claros?
Clara Keller: Não acho que as políticas das plataformas reflitam de forma absoluta como essas decisões são tomadas. Sendo bem objetiva sobre como isso funciona na prática: ou é feito por seres humanos ou através de ferramentas de automação, de inteligência artificial. Nessas duas operações, seja pelo humano ou pela máquina, há uma margem.
No caso da interpretação do conteúdo para um humano, existe uma margem sobre a forma que essa pessoa acha mais adequado moderar. Por mais que as plataformas digam que tentam reduzir o fator das convicções pessoais de quem modera, com um roteiro que esses funcionários precisam seguir, acho que sempre tem alguma margem para o moderador em si tomar essa decisão.
Não digo de uma forma mal intencionada, mas decisões sobre quais conteúdos devem ou não ficar são difíceis, em grande maioria estão em uma zona cinzenta. Não sei se é uma tarefa que cabe a esse tipo de operacionalização.
Já o que é feito pela automação também tem suas limitações porque essas ferramentas, por mais que tenham evoluído muito nos últimos anos, ainda possuem um problema de precisão, de interpretação de contexto. Muitas vezes elas acabam bloqueando conteúdos legítimos junto com conteúdo que pode ser considerado ilegal.
Em uma outra camada, essas políticas são privadas e vão atender, no fim das contas, aos interesses desses agentes econômicos, o interesse de gerar lucro. Não está errado a empresa lucrar, mas é importante termos em mente que esse é o incentivo para os critérios do conteúdo que devem ficar ou não em pé.
Nesse sentido, precisamos saber que o que faz sentido para eles manter, em termos lucrativos, é o conteúdo que gera engajamento.
G1: Praticamente todas as plataformas de mídias sociais suspenderam ou baniram Trump. Como você enxerga esse movimento?
Clara Keller: Enxergo como o resultado de processo histórico, em que uma primeira falta de ação do estado deu muito espaço para práticas autorregulatórias e expansão do poder dessas plataformas sobre o discurso dos usuários.
No momento atual, começamos a ver uma pressão social e até dos próprios governos sobre essas plataformas, diante de uma série de coisas que aconteceram nos últimos 5 anos. Sob essa pressão, elas acabam tomando decisões como essa.
Considerando essa perspectiva histórica, é também uma grande demonstração de poder que essas plataformas têm de bloquear quem seja, bloquear o discurso que for.
Não é uma demonstração inédita, esse caso está em destaque para todos nós, mas já tivemos uma série de decisões que foram tomadas em relação a membros do governo de outros países, que não são o que se chama de norte global. Não é a primeira vez que o Twitter ou o Facebook bloqueiam representantes de estado, mas é a primeira vez que se faz isso com norte-americanos.
Eu tenho uma preocupação com essa demonstração de poder, com a forma que essas decisões são tomadas, sem transparência. E não há nada que nos garanta que elas não estejam sendo, em algum grau, aleatórias.
Olhando para esse caso especificamente, eu não sou contra o Trump ter sido bloqueado naquela circunstância. Pessoalmente, acho que ele deveria ter sido bloqueado até antes do que foi. O que me preocupa é o processo que levou esse bloqueio, como essa decisão foi tomada e como outras estão sendo tomadas também.
G1: Você lembra de alguns chefes de estado que foram bloqueados?
Clara Keller: Sei que aconteceram casos com políticos libaneses, generais birmaneses e acho que alguns políticos americanos de extrema-direita já tinham sido bloqueados. No próprio Brasil, o Bolsonaro não teve sua conta bloqueada, mas já teve conteúdo retirado.
G1: O Comitê de Supervisão do Facebook é quem vai decidir se os perfis de Trump vão ser mantidos ou suspensos. Quais critérios você acredita que o Comitê deve levar em consideração para tomar essa decisão?
Clara Keller: Não conheço as regras de procedimento do Comitê de Supervisão do Facebook, não tenho certeza do que eles terão que observar formalmente em termos de critério.
O que eu imagino que seja considerado é a questão de perigo iminente, a integridade física da pessoa ou de terceiros. Há a possibilidade de exclusão por discurso de ódio, os incentivos que esse tipo de conteúdo gera. Acho que isso deve ter um peso importante dentro dessa decisão pelas circunstâncias em que esses conteúdos foram bloqueados pelo Trump e que depois foram retirados.
A minha sensação pessoal é que o Comitê vai manter a retirada do perfil, e acho que eles vão considerar na decisão o fato de que se trata de uma figura pública.
Imagino que teremos um grande desafio com essa decisão porque há um peso diferente no espaço ocupado por um representante de um país, que foi eleito. Impedir a manifestação dele em uma plataforma de grande alcance deve ter um peso diferente e até para o tipo de precedente que isso pode gerar.
G1: Você acha que a decisão vai ser influenciada pelo fato de ser o Trump? Essa decisão poderia ser diferente se fosse o presidente de um outro país?
Clara Keller: Acho. Aconteceu um vazamento, por meio de uma pessoa que trabalhava no Facebook, no final do ano passado, falando justamente sobre as diferenças de condutas adotadas a países diferentes.
A ex-funcionária fala um pouco sobre desinformação e discurso de ódio em alguns países, como a conduta do Facebook era mais relaxada ou mais irresponsável em relação a circulação de discurso de ódio e desinformação nesses locais do que nos EUA, por exemplo.
Enfim, eu acho que faz diferença sim, ser dos EUA.
G1: Publicações sobre um suposto tratamento precoce para Covid-19 feitas pelo presidente Jair Bolsonaro, pelo Ministério da Saúde e por políticos brasileiros foram marcadas pelo Twitter em janeiro. A plataforma diz que a decisão entre remover e marcar uma publicação depende do “interesse público”. Como você vê esse tipo de decisão? É melhor remover ou marcar?
Clara Keller: A princípio, a prática de marcar, de inserir um esclarecimento, deve ser priorizada.
Dessa forma, você mantém o debate público, não anula ou inviabiliza um discurso de circular, mas sinaliza que há controvérsias e há um cuidado já que aquela mensagem tem algum potencial de gerar danos, ainda que esse potencial não justifique uma retirada por inteiro. Existe uma restrição menor à liberdade de expressão nesses casos.
Entendo essas iniciativas de você marcar algumas coisas e outras você retirar. O que me incomoda é a falta de transparência em relação aos critérios que estão sendo adotados para tomar essas decisões e o fato de que elas estão sendo tomadas por agentes privados.
Tem muita coisa que se dá com base em termos de serviço, que a plataforma diz o que pode ou não pode, mas tem muita coisa que é tomada com base em leis. Temos um exercício de aplicação e monitoramento da lei sendo feito por agentes privados, que até poderiam, mas não têm um mandato legal para fazê-lo.
G1: Como esse processo poderia ser transparente?
Clara Keller: De uns anos para cá, começamos a ter algumas propostas regulatórias voltadas para o aumento de transparência. Uma lei alemã, que foi precursora disso, trata de 22 condutas que já são crimes, de acordo com o código penal alemão, e pede às plataformas: quando você retirar esse tipo de conteúdo você precisa me dizer quanto tempo demorou para retirar, quantos conteúdo desses você retirou, qual foi a sua decisão.
E essa lógica vem sendo reaplicada em alguns outros contextos. Está em discussão no Brasil o projeto de lei 2630 de 2020 [também conhecido como Projeto das Fake News]. Nesse projeto, a lógica se aplicaria na totalidade de moderação de conteúdo, pelo menos na forma atual do projeto.
Acho uma experimentação regulatória importante, aprovo esse tipo de iniciativa, mas ainda tenho uma preocupação: não sei se serão suficientes. Acho que a gente vai começar a experimentar uma reafirmação do que significa ser transparente – que tipo de informação é realmente necessária?
Precisaremos saber se esse tipo de informação vai ser o suficiente para testar esses critérios, se de fato as plataformas vão oferecer os aspectos que poderiam ser considerados segredos de negócio, incluindo o comportamento dos algoritmos.
G1: As regras sobre remoção de conteúdo deveriam passar por uma regulamentação do governo?
Clara Keller: Em relação aos critérios bem específicos de discurso, não é nesse sentido que a experiência regulatória vem evoluindo. O que tem sido feito é tentar se certificar de dar mais transparência para critérios, para as formas de remoção, sobre qual conteúdo é impulsionado e por que, qual conteúdo é pago para ser impulsionado e por quem esse conteúdo é pago.
A regulação vem no sentido de dar mais transparência a esses critérios, e não de dizer exatamente o que pode ou não pode ser dito. A gente não tem uma experiência democrática boa quando a gente condiciona o conteúdo das mensagens a um controle prévio.
G1: As big techs (Google, Amazon, Facebook, Apple e Microsoft) ficaram grandes demais? Está na hora de dividir ou regular essas empresas conforme sugeriram os procuradores que processaram duas delas no final do ano passado?
Clara Keller: Esse não é movimento tão novo. Se pararmos para lembrar, o direito concorrencial vem olhando para regulamentar as tecnologias há muitos anos. Existe um caso famoso, da Microsoft, na década de 1990.
Em relação a essas plataformas de big tech, começamos a ver mais recentemente alguma movimentação. Ainda não há muita ação, mas alguma movimentação para analisar esses modelos de negócios. E acho que cabe. Eu não sou especialista em direito concorrencial, mas certamente existe uma preocupação sob a perspectiva de regulação de liberdade de expressão também.
Em um grau importante, esse poder que essas plataformas têm sobre o discurso é também um poder econômico.
Elas são redes, o que quer dizer que elas se tornam mais valiosas conforme elas tenham mais usuários e que irão tentar dificultar a alternância dos usuários entre as plataformas.
Dificultar a desconcentração desse mercado também ajuda a aumentar o valor dessas plataformas, elas são mais relevantes quanto mais pessoas estejam lá, e para mais pessoas estarem lá elas não podem estar em outros lugares.
Então, acho que tem sim um papel importante para o direito concorrencial. Não sei ainda muito bem se dividir essas plataformas.
Mas você já vê, por exemplo, algumas iniciativas não concretizadas ainda, mas sugestões de que elas não possam acumular tantas plataformas diferentes, como o Facebook faz com WhatsApp, com o Instagram.
Até que ponto essas plataformas diferentes podem usar os dados dos usuários, acho que tem discussões muito importantes e necessárias acontecendo nesse sentido, de como mitigar esse poder que as plataformas têm sobre os dados dos usuários, sobre as possibilidades de expressão on-line.
Por Alessandro Feitosa Jr, G1