Tecnologia

mídia social: Facebook para envolver auditores externos para validar seu relatório de revisão de conteúdo – Últimas notícias


Mídia social gigante Facebook disse que se comprometerá com auditores externos para conduzir uma auditoria independente de suas métricas e validar os números publicados em seu relatório de aplicação de normas da comunidade. A empresa sediada nos Estados Unidos começou a compartilhar métricas sobre como ela aplica suas políticas de conteúdo em maio de 2018, para rastrear seu trabalho em seis tipos de conteúdo que violam seus Padrões da Comunidade, que definem o que é ou não permitido no Facebook e Instagram.

Atualmente, a empresa reporta em 12 áreas no Facebook e 10 no Instagram, incluindo bullying e assédio, discurso de ódio, organizações perigosas: terrorismo e ódio organizado e conteúdo violento e explícito.

Programa Técnico do Facebook Gerente, Integridade, Vishwanath Sarang disse no ano passado, a empresa tem trabalhado com auditores internamente para avaliar como as métricas que reporta podem ser auditadas de forma mais eficaz.

“Esta semana, estamos emitindo um Solicitação de Proposta (RFP) para auditores externos para conduzir uma auditoria independente dessas métricas. Esperamos conduzir essa auditoria a partir de 2021 e fazer com que os auditores publiquem suas avaliações assim que concluídas “, disse ele em uma postagem de blog.

Enfatizando que a credibilidade de seus sistemas deve ser conquistada e não presumida, Sarang disse que a empresa acredita que “auditorias e avaliações independentes são cruciais para nos responsabilizar e nos ajudar a fazer melhor”.

“… a transparência só é útil se as informações que compartilhamos forem úteis e precisas. No contexto do Relatório de aplicação de normas da comunidade, isso significa que as métricas que relatamos são baseadas em uma metodologia sólida e refletem com precisão o que está acontecendo em nossa plataforma”, Sarang disse.

Na sexta edição de seu Community Standards Enforcement Report, a empresa observou que houve um impacto do COVID-19 em sua moderação de conteúdo.

“Embora nossa tecnologia para identificar e remover conteúdo violador esteja melhorando, continuará havendo áreas em que contamos com as pessoas para revisar o conteúdo e treinar nossa tecnologia”, disse Guy Rosen, vice-presidente de integridade do Facebook.

Rosen disse que a empresa deseja que as pessoas tenham certeza de que os números que reporta sobre conteúdo prejudicial são precisos.

“… então, passaremos por uma auditoria independente de terceiros, começando em 2021, para validar os números que publicamos em nosso Relatório de aplicação dos padrões da comunidade”, disse ele.

Rosen disse que a taxa de detecção proativa de discurso de ódio no Facebook aumentou de 89 por cento para 95 por cento e, por sua vez, a quantidade de conteúdo em que atuou aumentou de 9,6 milhões no primeiro trimestre de 2020 para 22,5 milhões no segundo trimestre.

“Isso porque expandimos alguns de nossos automação tecnologia em espanhol, árabe e indonésio e melhorias em nossa tecnologia de detecção de inglês no primeiro trimestre. No segundo trimestre, as melhorias em nossos recursos de automação nos ajudaram a agir em mais conteúdo em inglês, espanhol e birmanês “, disse ele.

No Instagram, a taxa de detecção proativa de discurso de ódio aumentou de 45 por cento para 84 por cento e a quantidade de conteúdo sobre o qual foram tomadas medidas aumentou de 808.900 no trimestre de março para 3,3 milhões no trimestre de junho.


“Outra área em que vimos melhorias devido à nossa tecnologia foi o conteúdo de terrorismo. No Facebook, a quantidade de conteúdo em que atuamos aumentou de 6,3 milhões no primeiro trimestre para 8,7 milhões no segundo trimestre.

“E graças às melhorias em nossa tecnologia e ao retorno de alguns revisores de conteúdo, vimos aumentos na quantidade de conteúdo em que atuamos, conectado ao ódio organizado no Instagram e ao bullying e assédio no Facebook e no Instagram”, disse Rosen.

Ele disse ainda: “Desde outubro de 2019, conduzimos 14 interrupções de rede estratégica para remover 23 organizações proibidas diferentes, mais da metade das quais apoiava a supremacia branca”.

O relatório mostrou que as contas falsas acionadas diminuíram de 1,7 bilhão de contas no trimestre de março para 1,5 bilhão no trimestre de junho. “Continuamos a melhorar nossa capacidade de detectar e bloquear tentativas de criar contas falsas. Estimamos que nossos sistemas de detecção nos ajudam a prevenir milhões de tentativas de criar contas falsas todos os dias.

“Quando bloqueamos mais tentativas, há menos contas falsas para desativarmos, o que levou a um declínio geral nas contas acionadas desde o primeiro trimestre de 2019”, acrescentou. O relatório disse estimar que contas falsas representaram aproximadamente 5 por cento dos usuários ativos mensais (MAU) no Facebook durante o trimestre de junho.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *