Tecnologia

O discurso de ódio em Mianmar continua a prosperar no Facebook


O discurso de ódio em Mianmar continua a prosperar no Facebook
Anos depois de ser investigado por contribuir para a violência étnica e religiosa em Myanmar, O Facebook ainda tem problemas para detectar e moderar discurso de ódio e desinformação em sua plataforma no país do sudeste asiático, mostram documentos internos vistos pela The Associated Press.

Três anos atrás, a empresa encomendou um relatório que concluiu que o Facebook foi usado para “fomentar a divisão e incitar a violência offline” no país.


Ela se comprometeu a fazer melhor e desenvolveu várias ferramentas e políticas para lidar com o discurso de ódio. Mas percorrendo o Facebook hoje, não é difícil encontrar postagens que ameaçam assassinato e estupro em Mianmar.

As violações têm persistido – e até mesmo exploradas por atores hostis – desde a tomada militar de 1º de fevereiro deste ano, que resultou em abusos horríveis dos direitos humanos em todo o país.

Um vídeo de 2 1/2 minutos postado em 24 de outubro de um apoiador dos militares pedindo violência contra grupos de oposição teve mais de 56.000 visualizações.

“Portanto, a partir de agora, somos o deus da morte para todos (eles)”, diz o homem em birmanês enquanto olha para a câmera. “Venha amanhã e vamos ver se vocês são homens de verdade ou gays.”

Uma conta publica o endereço residencial de um desertor militar e uma foto de sua esposa. Outra postagem de 29 de outubro inclui uma foto de soldados conduzindo homens amarrados e vendados por um caminho de terra. A legenda birmanesa diz: “Não os pegue vivos.”

Apesar dos problemas em curso, o Facebook viu suas operações em Mianmar como um modelo para exportar ao redor do mundo e um caso em evolução e cáustico. Documentos revisados ​​pela AP mostram que Mianmar se tornou um campo de testes para nova tecnologia de moderação de conteúdo, com o gigante da mídia social testando maneiras de automatizar a detecção de discurso de ódio e desinformação com vários níveis de sucesso.

As discussões internas do Facebook sobre Mianmar foram reveladas em divulgações feitas à Comissão de Valores Mobiliários e fornecidas ao Congresso de forma redigida pelo consultor jurídico da ex-funcionária do Facebook que se tornou denunciante, Frances Haugen. As versões redigidas recebidas pelo Congresso foram obtidas por um consórcio de organizações de notícias, incluindo a The Associated Press.

O Facebook tem uma história mais curta, porém mais volátil em Mianmar do que na maioria dos países. Após décadas de censura sob regime militar, Mianmar estava conectado à internet em 2000. Pouco depois, o Facebook se associou a provedores de telecomunicações do país, permitindo que os clientes usassem a plataforma sem a necessidade de pagar pelos dados, que ainda era caro na época . O uso da plataforma explodiu. Para muitos em Mianmar, o Facebook se tornou a própria internet.

Htaike Htaike Aung, um defensor da política de internet de Mianmar, disse que também se tornou “um foco de extremismo” por volta de 2013, coincidindo com motins religiosos em Mianmar entre budistas e muçulmanos. Não está claro quanto, se houver, moderação de conteúdo estava acontecendo no momento.

Htaike Htaike Aung disse que se encontrou com o Facebook naquele ano e expôs questões no país, incluindo como as organizações locais estavam vendo quantidades exponenciais de discurso de ódio na plataforma e como mecanismos preventivos, como postagens de denúncias, não funcionavam no contexto de Mianmar .

Um exemplo que ela citou foi a foto de uma pilha de varas de bambu que foi postada com a legenda: “Estejamos preparados porque haverá um motim dentro da comunidade muçulmana”.

Htaike Htaike Aung disse que a foto foi denunciada ao Facebook, mas a empresa não a retirou porque não violava nenhum dos padrões da comunidade da empresa.

“O que é ridículo, porque na verdade era um apelo à violência. Mas o Facebook não via dessa forma”, disse ela.

Anos depois, a falta de moderação chamou a atenção da comunidade internacional. Em março de 2018, especialistas em direitos humanos das Nações Unidas que investigavam ataques contra a minoria muçulmana Rohingya de Mianmar disseram que o Facebook desempenhou um papel na disseminação do discurso de ódio.

Quando questionado sobre Mianmar um mês depois, durante uma audiência no Senado dos EUA, o CEO Mark Zuckerberg respondeu que o Facebook planejava contratar “dezenas” de falantes de birmanês para moderar o conteúdo, trabalharia com grupos da sociedade civil para identificar figuras de ódio e desenvolver novas tecnologias para combater o discurso de ódio.

“O discurso de ódio é muito específico para o idioma. É difícil fazer isso sem pessoas que falem o idioma local e precisamos intensificar drasticamente nossos esforços nessa área”, Zuckerberg disse.

Documentos internos do Facebook mostram que, embora a empresa tenha intensificado os esforços para combater o discurso de ódio, as ferramentas e estratégias para fazer isso nunca deram frutos e os indivíduos dentro da empresa soaram repetidamente o alarme. Em um documento de maio de 2020, um funcionário disse que um classificador de texto de discurso de ódio que estava disponível não estava sendo usado ou mantido. Outro documento publicado um mês depois disse que havia “lacunas significativas” na detecção de desinformação em Mianmar.

“O Facebook realizou ações simbólicas que, creio, foram criadas para apaziguar os legisladores de que algo estava sendo feito e não precisava olhar muito mais a fundo”, disse Ronan Lee, um acadêmico visitante da Iniciativa Estatal Internacional de Crime da Queen Mary University de Londres.

Em uma declaração enviada por e-mail à AP, Rafael Frankel, diretor de política do Facebook para países emergentes da APAC, disse que a plataforma “construiu uma equipe dedicada de mais de 100 falantes de birmanês”, mas se recusou a informar exatamente quantos eram empregados. A empresa de marketing online NapoleonCat estima que haja cerca de 28,7 milhões de usuários do Facebook em Mianmar.

Durante seu depoimento para o Parlamento da União Europeia em 8 de novembro, Haugen, a denunciante, criticou o Facebook por falta de investimento em checagem de fatos por terceiros e por depender de sistemas automáticos para detectar conteúdo prejudicial.

“Se você focar nesses sistemas automáticos, eles não funcionarão para os lugares com maior diversidade étnica do mundo, com lugares linguisticamente diversos no mundo, que muitas vezes são os mais frágeis”, disse ela ao se referir a Mianmar.

Após o testemunho de Zuckerberg no congresso de 2018, o Facebook desenvolveu ferramentas digitais para combater o discurso de ódio e a desinformação e também criou uma nova estrutura interna para gerenciar crises como Mianmar em todo o mundo.

O Facebook elaborou uma lista de “países em risco” com níveis de classificação para uma “equipe de países críticos” para focar sua energia, e também classificou os idiomas que precisam de mais moderação de conteúdo. Mianmar foi listado como um país em risco de “Nível 1”, com o birmanês considerado um “idioma prioritário” ao lado dos idiomas etíopes, bengali, árabe e urdu.

Os engenheiros do Facebook ensinaram gírias birmanesas para “muçulmanos” e “Rohingya” em seus sistemas automatizados. Ele também treinou sistemas para detectar “comportamento inautêntico coordenado”, como uma única pessoa postando de várias contas ou coordenação entre contas diferentes para postar o mesmo conteúdo.

A empresa também tentou “rebaixamento de infrator reincidente”, o que diminui o impacto das postagens de usuários que frequentemente violam as diretrizes. Em um teste em dois dos países mais voláteis do mundo, o rebaixamento funcionou bem na Etiópia, mas mal em Mianmar – uma diferença que confundiu os engenheiros, de acordo com um relatório de 2020 incluído nos documentos.

“Não temos certeza do porquê … mas essas informações fornecem um ponto de partida para análises futuras e pesquisas de usuários”, disse o relatório. O Facebook se recusou a comentar sobre o registro se o problema foi corrigido um ano após sua detecção, ou sobre o sucesso das duas ferramentas em Mianmar.

FacebookTwitterLinkedin




Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *