Conselho do Facebook passa a decidir também sobre remoção de conteúdo

Decisão dará mais poder a usuários, que terão recurso adicional para remover discurso de ódio e desinformação

As decisões do Facebook a respeito dos pedidos de retirada de conteúdos do Facebook e do Instagram não são mais soberanas. Na terça-feira (13/4), a empresa anunciou que os usuários que ficarem insatisfeitos com suas decisões sobre conteúdos que julgarem ofensivos ou inadequados poderão fazer uma petição direta ao conselho de supervisão da empresa, o Facebook Oversight Board (Conselho de Supervisão do Facebook).

Até agora, os usuários duas plataformas podiam apelar ao Conselho apenas sobre o que achavam que deveria ser restaurado, a fim de reverter decisões dos moderadores.

A grande maioria das decisões de moderação – e de retirada de conteúdo – do Facebook são feitas por mecanismos de inteligência artificial. Eles detectam conteúdos ilegais ou que violem a política da rede antes mesmo de o usuário fazer uma denúncia. Os moderadores humanos entram em campo em casos complexos que uma máquina não consegue resolver sozinha.

Mas a rapidez proporcionada pelas máquinas não está imune a erros. O mais recente foi o da cidade francesa Bitche, que ficou um mês fora da rede social porque os algoritmos associaram seu nome à palavra bitch, em inglês, um xingamento contra as mulheres.

A mudança no mecanismo do Conselho pode ser uma boa notícia para os jornalistas atacados na plataforma. Em março passado, o jornal britânico The Guardian teve acesso a um documento confidencial com as regras a serem seguidas pelos moderadores do Facebook.

Entre elas está a de não remover ataques ou até pedidos de morte de pessoas públicas, incluindo jornalistas.

Expansão dos poderes do Conselho – e dos usuários

As postagens revisadas e mantidas online a partir de agora serão elegíveis para apelação ao Oversight Board, desde que infrinjam as regras que proíbem discurso de ódio, ameaças, solicitação sexual, desinformação e violação de direitos autorais, por exemplo. É uma nova esperança para os que esperam ver conteúdo problemático removido.

A opção estará disponível para todos os usuários nas próximas semanas. A empresa informa que esse período é necessário para garantir que não haja problemas técnicos com a nova funcionalidade e afirma ser padrão no processo de lançamento de qualquer recurso.

Como será a apelação

Depois de esgotar o processo de apelação do Facebook, o usuário receberá uma Oversight Board Reference ID e com ela poderá apelar da decisão ao Conselho. Será possível apelar de  decisões sobre postagens e status, bem como fotos, vídeos, comentários e compartilhamentos.

As apelações de vários usuários sobre o mesmo conteúdo serão reunidas em um único caso para apreciação do Conselho.

Nem todos os casos serão analisados pelo Conselho e portanto não há garantia de que uma apelação resultará numa decisão. O órgão tem a prerrogativa de selecionar os casos em que atuará, priorizando aqueles que afetam muitos usuários, são de importância crítica para o discurso público ou levantam questões importantes sobre as políticas do Facebook.

Como funciona o Conselho

O Facebook Oversight Board tem 20 integrantes e passou a operar em outubro de 2020, com a responsabilidade de supervisionar de forma independente as decisões de moderação da empresa.

O board se inspira em algumas regras da Suprema Corte dos Estados Unidos e foi criado pelo CEO do Facebook, Mark Zuckerberg, como um mecanismo de auto-regulação.

Avesso a desempenhar um papel ativo no policiamento do que é postado, o Zuckerberg espera diminuir as pressões ao se comprometer em honrar qualquer decisão tomada pelo órgão. O mecanismo também tem o objetivo de dissuadir a criação de regulamentações que alguns países têm ameaçado implantar.

O processo de decisão

As apelações selecionadas pelo Conselho são inicialmente analisadas por um painel de cinco membros escolhidos por sorteio. A partir do início dessa análise, o compromisso é que a decisão final seja tomada e eventuais medidas sejam tomadas pelo Facebook num prazo máximo de 90 dias.

Segundo a empresa, o painel se baseia nas políticas do Facebook e nos parâmetros dos direitos humanos internacionais. Além disso, leva em conta as informação do usuário, do Facebook, de especialistas externos e comentários públicos para chegar a uma decisão preliminar.

Todos os vinte membros são então comunicados dessa decisão preliminar e deverão se manifestar sobre ela. A decisão final leva em conta o pronunciamento da maioria e é então publicada no site do Conselho. A partir daí, o Facebook se compromete a implementar a decisão em até sete dias e a se manifestar publicamente sobre ela em até 30 dias.

Poucas decisões até agora

Embora seja um passo significativo para conter a desinformação e garantir uma moderação mais eficiente, o Conselho só publicou sete decisões desde o seu lançamento há seis meses, a maioria revertendo as decisões do Facebook. Em um oitavo caso, absteve-se de publicar uma decisão depois que a postagem foi removida pelo próprio usuário.

Atualmente, o órgão está passando por seu maior teste:  revisar  a decisão do Facebook de banir o então presidente Donald Trump de sua plataforma em janeiro de 2021.

Conselho mudou remoção de postagem de brasileira

Uma das decisões envolveu a postagem de uma usuária no Brasil no Instagram. O objetivo era a conscientização sobre o câncer de mama e mostrava mamilos de mulheres. O sistema automatizado removeu a postagem por violar a política contra o compartilhamento de fotos nuas.

Na decisão, o Conselho manifestou-se contra a remoção, pois a política do Facebook sobre nudez contém uma exceção para “conscientização do câncer de mama”. O conselho acrescentou que a remoção automatizada mostrou uma “falta de supervisão humana adequada, o que levanta questões de direitos humanos”.

Antecipando-se ao julgamento, o Facebook restaurou a postagem depois que o Conselho decidiu analisar o caso.

Em outra decisão, mandou voltar coquetel de drogas

Mas as decisões do Conselho também não escapam à controvérsia. Outro caso analisado foi o de um usuário francês que alegou falsamente que um certo coquetel de drogas poderia curar a Covid-19. Na postagem, ele repreendia o governo francês por se recusar a disponibilizar o tratamento.

O Facebook removeu o conteúdo por violar sua política contra informações incorretas que podem causar danos no mundo real, argumentando que isso poderia levar as pessoas a ignorar as orientações de saúde ou tentar se automedicar.

O Conselho reverteu a medida, alegando que a postagem não representava um dano iminente à vida das pessoas, porque seu objetivo seria o de mudar uma política governamental e não o de defender o uso de remédios sem receita médica.

Bitche ou Bitch?

As mundanças são promissoras, mas o caso da cidade francesa ilustra ao mesmo tempo a dificuldade de corrigir os erros do Facebook e de se recorrer ao Conselho e vale analisá-lo.

Depois de confundir o nome de Bitche com o palavrão em inglês, os algoritmos não tiveram dúvida: retiraram o acesso da prefeitura da cidade à sua página no Facebook. Um caso semelhante já tinha acontecido anteriormente com uma cidade inglesa.

O caso francês aconteceu em meados de março. Na ocasião, várias páginas alusivas à cidade de Bitche também foram suspensas, como o “Golf de Bitche” e “Les medieval européenne de Bitche”. Mas o acesso delas foi reativado em alguns dias.

Para manter contato com seus cidadãos, o município de Bitche se viu obrigado a abrir outra página, batizada de “Mairie 57230”. E passou a travar uma batalha com o Facebook para reaver a página original. Pelas regras, tinha que esperar, porque não podia subir o caso para o Conselho enquanto não recebesse uma decisão da empresa. O gerente de comunicação da Prefeitura, Valérie Degiuy, explicou à Rádio Mélodie:

Tentei por todos os meios contactar o Facebook, pelos vários formulários, mas não tenho mais o que fazer. Tentei em uma mensagem privada na página do Facebook da França, deixei cerca de dez mensagens todos os dias. Fui finalmente contatado para me dizer que devo aguardar a resposta do Facebook .”

Depois de quase um mês e após repercussão nas mídias sociais e na imprensa, com matéria até no Le Figaro, Bitche voltou ao ar nesta terça-feira (13/4). No mesmo dia, o Facebook da França admitiu que seus sistemas de moderação fizeram “uma análise incorreta da situação” .

Por precaução, o Le Figaro informa que o município de Rohrbach-lès-Bitche preferiu renomear-se no Facebook, para evitar ser vítima de nova confusão. Passou a figurar como “Cidade de Rohrbach”.