Últimas

Facebook sinaliza 50 milhões de mensagens enganosas de coronavírus


Mais de 5 milhões de peças de conteúdo receberam etiquetas de aviso no Facebook por serem enganosas em relação ao coronavírus, revelou a rede social.

Ao publicar seu último Relatório de Aplicação de Padrões Comunitários, o Facebook disse que desde 1º de março removeu mais de 2,5 milhões de peças relacionadas à venda de itens médicos, como máscaras e kits de teste Covid-19.

A rede social também revelou que o Centro de Informações Covid-19, que mostra informações sobre saúde e vírus de fontes oficiais, agora havia direcionado mais de dois bilhões de pessoas a recursos das autoridades de saúde.

As plataformas de mídia social, incluindo o Facebook, foram criticadas repetidamente pela quantidade de desinformação e conteúdo prejudicial vinculado ao surto de Covid-19, que se espalhou online.

Várias instituições de caridade e organizações de segurança on-line alertaram que, com as pessoas – principalmente crianças – passando mais tempo on-line durante o bloqueio, é necessário um monitoramento mais rigoroso das plataformas on-line.

Em seu Relatório de aplicação, o Facebook disse que sua tecnologia de detecção estava encontrando cerca de 90% do conteúdo que a plataforma remove antes de ser denunciada ao site.

Os milhões de peças de conteúdo que receberam etiquetas de aviso foram baseadas em cerca de 7.500 artigos que foram analisados ​​por grupos de verificação de fatos que trabalham com o site.

A rede social disse que dobrou a quantidade de conteúdo relacionado às drogas que removeu em comparação com o relatório anterior, derrubando mais de 8,8 milhões de partes de conteúdo violador.

No Instagram, que também é de propriedade do Facebook, a quantidade de conteúdo de suicídio e autolesão contra a qual ele tomou medidas aumentou em 40%, informou a empresa.

Como parte dos anúncios, o Instagram confirmou vários novos recursos criados para combater o bullying e o contato indesejado na plataforma.

Os usuários confirmados do aplicativo poderão escolher quem pode marcar e mencioná-los nas postagens e excluir comentários negativos em massa, além de bloquear ou restringir várias contas que postam esses comentários de uma só vez.

Um recurso também permitirá que os usuários fixem um número selecionado de comentários positivos na parte superior da seção de comentários de uma postagem.

Juntamente com o relatório, o Facebook disse que estava aprimorando parte da tecnologia usada para violar a detecção de conteúdo, incluindo a forma como detecta imagens que contêm desinformação do Covid-19 e são duplicatas quase exatas das imagens identificadas anteriormente.

A empresa disse que também desenvolveu sistemas para interromper a venda de produtos ligados ao vírus.

Em artigo publicado no blog, Mike Schroepfer, diretor de tecnologia do Facebook, disse que a confiança da empresa na tecnologia para revisar o conteúdo aumentou durante a pandemia de coronavírus.

Quando a crise do Covid-19 surgiu, tínhamos as ferramentas e os processos para avançar rapidamente

“Passamos os últimos anos construindo ferramentas, equipes e tecnologias para ajudar a proteger as eleições contra interferências, impedir a disseminação de informações errôneas em nossos aplicativos e manter as pessoas protegidas contra conteúdo nocivo”, disse ele.

“Então, quando a crise do Covid-19 surgiu, tínhamos as ferramentas e os processos para avançar rapidamente e pudemos continuar encontrando e removendo conteúdo que viola nossas políticas.

“Quando enviamos temporariamente nossos revisores de conteúdo para casa devido à pandemia do Covid-19, aumentamos nossa dependência desses sistemas automatizados e priorizamos o conteúdo de alta gravidade para que nossas equipes revisem, a fim de continuar a manter nossos aplicativos seguros durante esse período.”

O último relatório do Facebook vem na sequência de um exame mais aprofundado de seu trabalho de moderação.

Na semana passada, parlamentares seniores acusaram empresas, incluindo o Facebook, de não fornecer detalhes suficientes sobre seus esforços para combater a desinformação durante uma aparição recente diante de um comitê selecionado.

Julian Knight, presidente do Comitê Seleto do Departamento de Digital, Cultura, Mídia e Esporte (DCMS), disse que as empresas foram “profundamente inúteis”.

“A falta de informações e detalhes nas respostas que recebemos demonstraram desconsideração do importante processo de análise”, disse ele.

“Estamos novamente solicitando às empresas de mídia social informações que estavam tão tristemente ausentes para provar ao Parlamento e seus usuários que suas organizações são abertas e responsáveis ​​por seu comportamento”.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *