Tecnologia

Meta concorda em parar a discriminação algorítmica em anúncios de habitação


Meta concorda em parar a discriminação algorítmica em anúncios de habitação
Meta (anteriormente Facebook) e o governo dos EUA concordaram em encerrar um processo que acusava a rede social de se envolver em publicidade discriminatória para habitação.

O processo de discriminação habitacional, aberto pelo governo em 2019, acusou que o Meta permitiu e incentivou os anunciantes a segmentar seus anúncios de habitação baseando-se em raça, cor, religião, sexo, deficiência, status familiar e origem nacional para decidir quais usuários do Facebook serão elegíveis e inelegíveis para receber anúncios de habitação.


Sob o acordo, a Meta deixará de usar uma ferramenta de publicidade para anúncios de habitação que se baseia em um algoritmo discriminatório para encontrar usuários que “se parecem” com outros usuários com base no Fair Housing Act (FHA) – características protegidas.

A Meta também planeja desenvolver um novo sistema nos próximos seis meses para abordar disparidades raciais e outras causadas pelo uso de algoritmos de personalização em seu sistema de entrega de anúncios para anúncios de habitação, o Departamento de Justiça dos EUA disse em um comunicado.

Se os EUA concluírem que o novo sistema aborda adequadamente a distribuição discriminatória de anúncios de habitação, a Meta implementará o sistema, que estará sujeito à aprovação do Departamento de Justiça e supervisão do tribunal.

No entanto, se o governo achar que o novo sistema é insuficiente para lidar com a discriminação algorítmica na entrega de anúncios de habitação, o acordo será rescindido.

“Por causa desse processo inovador, a Meta vai – pela primeira vez – mudar seu sistema de entrega de anúncios para lidar com a discriminação algorítmica”, disse o procurador dos EUA. Damian Williams.

“Mas se a Meta não conseguir demonstrar que mudou suficientemente seu sistema de entrega para se proteger contra o viés algorítmico, este escritório prosseguirá com o litígio”, acrescentou. Williams adicionado.

O sistema de entrega de anúncios da Meta usou algoritmos de aprendizado de máquina que dependem em parte de características protegidas por FHA – como raça, nacionalidade e sexo – para ajudar a determinar qual subconjunto do público-alvo de um anunciante realmente receberá um anúncio de habitação.

“À medida que a tecnologia evolui rapidamente, empresas como a Meta têm a responsabilidade de garantir que suas ferramentas algorítmicas não sejam usadas de maneira discriminatória”, disse o procurador-geral assistente, Kristen Clarke.

Este acordo é histórico, marcando a primeira vez que a Meta concordou em encerrar uma de suas ferramentas de segmentação algorítmica e modificar seus algoritmos de entrega para anúncios de habitação em resposta a uma ação judicial de direitos civis.

“O Departamento de Justiça está comprometida em responsabilizar a Meta e outras empresas de tecnologia quando abusam de algoritmos de maneiras que prejudicam ilegalmente comunidades marginalizadas”, acrescentou Clarke.

FacebookTwitterLinkedin




Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *