Tecnologia

O Facebook hesitou em restringir o conteúdo divisivo do usuário na Índia, mostram documentos


O Facebook hesitou em restringir o conteúdo divisivo do usuário na Índia, documentos mostram
Facebook na Índia, tem sido seletivo em conter discurso de ódio, desinformação e mensagens inflamatórias, particularmente conteúdo anti-muçulmano, de acordo com documentos vazados obtidos pela The Associated Press, mesmo com seus próprios funcionários lançando dúvidas sobre as motivações e interesses da empresa.

De pesquisas recentes em março deste ano a memorandos da empresa que datam de 2019, os documentos internos da empresa na Índia destacam as constantes lutas do Facebook para suprimir o conteúdo abusivo em suas plataformas na maior democracia do mundo e no maior mercado em crescimento da empresa. As tensões comunais e religiosas na Índia têm uma história de fervilhar nas redes sociais e alimentar a violência.


Os arquivos mostram que o Facebook está ciente dos problemas há anos, levantando questões sobre se fez o suficiente para resolver esses problemas. Muitos críticos e especialistas digitais dizem que isso não foi feito, especialmente nos casos em que membros do partido governante Bharatiya Janata, o BJP, do primeiro-ministro Narendra Modi, estão envolvidos.

Em todo o mundo, o Facebook tem se tornado cada vez mais importante na política, e na Índia não é diferente.

Modi foi creditado por alavancar a plataforma em benefício de seu partido durante as eleições, e reportagens do The Wall Street Journal no ano passado lançaram dúvidas sobre se o Facebook estava aplicando seletivamente suas políticas de discurso de ódio para evitar rebatidas do BJP. Modi e presidente e CEO do Facebook Mark Zuckerberg exalaram bonomia, homenageada por uma imagem de 2015 dos dois se abraçando na sede do Facebook.

Os documentos vazados incluem um tesouro de relatórios internos da empresa sobre discurso de ódio e desinformação na Índia. Em alguns casos, muito disso foi intensificado por seus próprios algoritmos e recursos “recomendados”. Mas eles também incluem as preocupações dos funcionários da empresa sobre o manuseio incorreto dessas questões e seu descontentamento expresso sobre o “descontentamento” viral na plataforma.

De acordo com os documentos, o Facebook viu a Índia como um dos mais “países em risco” no mundo e identificou os idiomas hindi e bengali como prioridades para “automação na violação de discurso hostil”. Ainda assim, o Facebook não tinha moderadores de idioma local suficientes ou sinalização de conteúdo para impedir a desinformação que às vezes levava à violência no mundo real.

Em um comunicado à AP, o Facebook disse que “investiu significativamente em tecnologia para encontrar discurso de ódio em vários idiomas, incluindo hindi e bengali”, o que resultou em “redução da quantidade de discurso de ódio que as pessoas veem pela metade” em 2021.

“O discurso de ódio contra grupos marginalizados, incluindo muçulmanos, está aumentando globalmente. Portanto, estamos melhorando a fiscalização e estamos comprometidos em atualizar nossas políticas à medida que o discurso de ódio evolui online”, disse um porta-voz da empresa.

Esta história da AP, juntamente com outras que estão sendo publicadas, é baseada em divulgações feitas à Securities and Exchange Commission e fornecidas ao Congresso de forma redigida pelo consultor jurídico da ex-funcionária do Facebook que se tornou denunciante, Frances Haugen. As versões editadas foram obtidas por um consórcio de meios de comunicação, incluindo a AP.

Em fevereiro de 2019 e antes de uma eleição geral, quando as preocupações com a desinformação estavam em alta, um funcionário do Facebook queria entender o que um novo usuário no país via em seu feed de notícias se tudo o que fizesse fosse seguir páginas e grupos recomendados exclusivamente pela plataforma em si.

O funcionário criou uma conta de usuário de teste e a manteve ativa por três semanas, período durante o qual um evento extraordinário abalou a Índia – um ataque militante na disputada Caxemira matou mais de 40 soldados indianos, levando o país à quase guerra com o rival Paquistão.

Na nota, intitulada “A descida de um usuário de teste indiano em um mar de mensagens polarizadoras e nacionalistas”, o funcionário cujo nome foi redigido disse que ficou “chocado” com o conteúdo que inundou o feed de notícias que “se tornou uma enxurrada quase constante de polarização conteúdo nacionalista, desinformação e violência e sangue coagulado. “

Grupos aparentemente benignos e inócuos recomendados pelo Facebook rapidamente se transformaram em algo completamente diferente, onde discurso de ódio, rumores não verificados e conteúdo viral se espalharam.

Os grupos recomendados foram inundados com notícias falsas, retórica anti-Paquistão e conteúdo islamofóbico. Muito do conteúdo era extremamente gráfico.

Um deles incluía um homem segurando a cabeça ensanguentada de outro homem coberta por uma bandeira do Paquistão, com uma bandeira indiana no lugar de sua cabeça. Seu recurso “Popular Across Facebook” mostrou uma série de conteúdo não verificado relacionado aos ataques retaliatórios indianos no Paquistão após os atentados, incluindo uma imagem de uma bomba napalm de um videogame desmascarado por um dos parceiros de verificação de fatos do Facebook.

“Seguindo o Feed de notícias desse usuário de teste, vi mais imagens de pessoas mortas nas últimas três semanas do que em toda a minha vida”, escreveu o pesquisador.

Isso gerou profundas preocupações sobre aonde tal conteúdo divisionista poderia levar no mundo real, onde as notícias locais da época estavam relatando sobre os caxemires sendo atacados na precipitação radioativa.

“Devemos nós, como empresa, ter uma responsabilidade extra para prevenir danos à integridade resultantes do conteúdo recomendado?” perguntou o pesquisador em sua conclusão.

O memorando, distribuído com outros funcionários, não respondeu a essa pergunta. Mas expôs como os próprios algoritmos da plataforma ou configurações padrão desempenharam um papel no incentivo a esse descontentamento. O funcionário observou que havia “pontos cegos” claros, principalmente no “conteúdo do idioma local”. Eles disseram que esperavam que essas descobertas iniciassem conversas sobre como evitar esses “danos à integridade”, especialmente para aqueles que “diferem significativamente” do usuário americano típico.

Mesmo que a pesquisa tenha sido conduzida durante três semanas que não foram uma representação média, eles reconheceram que ela mostrou como tal conteúdo “não moderado” e problemático “poderia assumir totalmente o controle” durante “um grande evento de crise”.

O porta-voz do Facebook disse que o estudo de teste “inspirou análises mais profundas e rigorosas” de seus sistemas de recomendação e “contribuiu para mudanças no produto para melhorá-los”.

“Separadamente, nosso trabalho para conter o discurso de ódio continua e fortalecemos ainda mais nossos classificadores de ódio, para incluir quatro línguas indianas”, disse o porta-voz.

Outros arquivos de pesquisa sobre desinformação na Índia destacam o quão grande é um problema para a plataforma.

Em janeiro de 2019, um mês antes do experimento do usuário de teste, outra avaliação disparou alarmes semelhantes sobre conteúdo enganoso. Em uma apresentação distribuída aos funcionários, as descobertas concluíram que as tags de desinformação do Facebook não eram claras o suficiente para os usuários, ressaltando que era necessário fazer mais para conter o discurso de ódio e notícias falsas. Os usuários disseram aos pesquisadores que “rotular claramente as informações tornaria suas vidas mais fáceis”.

Novamente, foi observado que a plataforma não tinha verificadores de fatos no idioma local suficientes, o que significava que muito conteúdo não foi verificado.

Junto com a desinformação, os documentos vazados revelam outro problema que assola o Facebook na Índia: a propaganda anti-muçulmana, especialmente por grupos hindus-duras.

A Índia é o maior mercado do Facebook, com mais de 340 milhões de usuários – quase 400 milhões de indianos também usam o serviço de mensagens da empresa, WhatsApp. Mas ambos foram acusados ​​de serem veículos para espalhar discurso de ódio e notícias falsas contra as minorias.

Em fevereiro de 2020, essas tensões ganharam vida no Facebook quando um político do partido de Modi carregou um vídeo na plataforma no qual ele pediu a seus apoiadores que removessem a maioria dos manifestantes muçulmanos de uma estrada em Nova Delhi se a polícia não o fizesse. Motins violentos eclodiram em poucas horas, matando 53 pessoas. A maioria deles eram muçulmanos. Somente depois de milhares de visualizações e compartilhamentos o Facebook removeu o vídeo.

Em abril, a desinformação dirigida aos muçulmanos novamente se tornou viral em sua plataforma quando a hashtag “Coronajihad” inundou os feeds de notícias, culpando a comunidade pelo aumento de casos COVID-19. A hashtag foi popular no Facebook por dias, mas mais tarde foi removida pela empresa.

Para Mohammad Abbas, um pregador muçulmano de 54 anos em Nova Delhi, essas mensagens foram alarmantes.

Alguns videoclipes e postagens supostamente mostravam muçulmanos cuspindo nas autoridades e na equipe do hospital. Eles foram rapidamente provados como falsos, mas então as falhas comunais da Índia, ainda estressadas por tumultos mortais do mês anterior, foram novamente abertas.

A desinformação desencadeou uma onda de violência, boicotes de negócios e discurso de ódio contra os muçulmanos. Milhares da comunidade, incluindo Abbas, foram confinados à quarentena institucional por semanas em todo o país. Alguns foram até mandados para a prisão, apenas para serem posteriormente exonerados pelos tribunais.

“As pessoas compartilharam vídeos falsos no Facebook alegando que os muçulmanos espalharam o vírus. O que começou como mentira no Facebook se tornou verdade para milhões de pessoas”, disse Abbas.

As críticas ao modo como o Facebook lidava com esse tipo de conteúdo foram ampliadas em agosto do ano passado, quando o The Wall Street Journal publicou uma série de histórias detalhando como a empresa havia debatido internamente se deveria classificar um legislador hindu de linha dura próximo ao partido de Modi como um “indivíduo perigoso” – uma classificação que o baniria da plataforma – após uma série de postagens anti-muçulmanas de sua conta.

Os documentos revelam que a liderança vacilou com a decisão, gerando preocupações por parte de alguns funcionários, dos quais um escreveu que o Facebook estava apenas classificando as organizações extremistas não hindus como “perigosas”.

Os documentos também mostram como a própria diretora de política da empresa para o sul da Ásia compartilhou o que muitos consideraram postagens islamofóbicas em seu perfil pessoal no Facebook. Na época, ela também argumentou que classificar o político como perigoso prejudicaria as perspectivas do Facebook na Índia.

O autor de um documento interno de dezembro de 2020 sobre a influência de poderosos atores políticos nas decisões políticas do Facebook observa que “o Facebook rotineiramente faz exceções para atores poderosos ao aplicar a política de conteúdo”. O documento também cita um ex-chefe de segurança do Facebook dizendo que fora dos Estados Unidos, “os chefes de políticas locais são geralmente retirados do partido político governante e raramente provenientes de grupos étnicos desfavorecidos, credos religiosos ou castas”, o que “naturalmente distorce a tomada de decisões para os poderosos. “

Meses depois, o funcionário indiano saiu do Facebook. A empresa também removeu o político da plataforma, mas os documentos mostram que muitos funcionários da empresa sentiram que a plataforma lidou mal com a situação, acusando-a de viés seletivo para evitar estar na mira do governo indiano.

“Vários colegas muçulmanos ficaram profundamente incomodados / magoados com a linguagem usada em postagens da liderança política indiana em seus assuntos pessoais FB perfil “, escreveu um funcionário.

Outro escreveu que a “barbárie” estava tendo permissão para “florescer em nossa rede”.

É um problema que continua para o Facebook, de acordo com os arquivos que vazaram.

Em março deste ano, a empresa estava debatendo internamente se poderia controlar as “narrativas antimuçulmanas, fomentadoras do medo” promovidas por Rashtriya Swayamsevak Sangh, um grupo nacionalista hindu de extrema direita do qual Modi também faz parte, em sua plataforma .

Em um documento intitulado “Lotus Mahal”, a empresa observou que membros com links para o BJP criaram várias contas no Facebook para ampliar o conteúdo antimuçulmano, desde “ligações para expulsar populações muçulmanas da Índia” e “Love Jihad”, uma forma não comprovada teoria da conspiração por linha-dura hindu que acusam os homens muçulmanos de usar casamentos inter-religiosos para coagir as mulheres hindus a mudar de religião.

A pesquisa descobriu que muito desse conteúdo “nunca foi sinalizado ou acionado”, pois o Facebook não tinha “classificadores” e “moderadores” nos idiomas hindi e bengali. O Facebook disse que adicionou classificadores de incitação ao ódio em hindi a partir de 2018 e introduziu o bengali em 2020.

Os funcionários também escreveram que o Facebook ainda não havia “apresentado uma indicação para designação desse grupo devido às sensibilidades políticas”.

A empresa disse que seu processo de designação inclui uma análise de cada caso por equipes relevantes em toda a empresa e são agnósticas quanto à região, ideologia ou religião e se concentram em indicadores de violência e ódio. Não revelou, entretanto, se o grupo nacionalista hindu havia sido designado como “perigoso”.

FacebookTwitterLinkedin




Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *