Os modelos de IA do Google, IBM e Microsoft não conseguem conter o preconceito de gênero – Últimas notícias


Nova York, revelando outro lado negro dos modelos treinados de Inteligência Artificial (IA), uma nova pesquisa afirma que Google Os conjuntos de dados de IA identificaram a maioria das mulheres usando máscaras como se suas bocas estivessem cobertas por fitas adesivas.

Não apenas o Google. Quando colocado para trabalhar, alimentado por inteligência artificial Assistente virtual IBM Watson não estava muito atrás no preconceito de gênero.

Em 23 por cento dos casos, Watson viu uma mulher usando uma mordaça, enquanto em outros 23 por cento tinha certeza de que a mulher estava “usando uma restrição ou correntes”.

Para chegar a esta conclusão, Ilinca Barsan, Diretora de Ciência de Dados, Wunderman Thompson Data usou 265 imagens de homens mascarados e 265 imagens de mulheres mascaradas, de qualidade de imagem, estilo de máscara e contexto variados – de fotos externas a instantâneos de escritório, de estoque imagens a selfies do iPhone, de máscaras de algodão DIY a respiradores N95.

Os resultados mostraram que algoritmos de IA são, de fato, escritos por “homens”.

Das 265 imagens de homens mascarados, o Google identificou corretamente 36 por cento como contendo PPE. Também confundiu 27 por cento das imagens com pêlos faciais.

“Embora impreciso, isso faz sentido, já que o modelo provavelmente foi treinado em milhares e milhares de imagens de homens barbados.

“Apesar de não receber explicitamente o homem do rótulo, a IA parecia fazer a associação de que algo cobrindo a metade inferior do rosto de um homem provavelmente seria o cabelo facial”, disse Barsan, que decifra os dados no Wunderman Thompson, uma empresa de marketing global com sede em Nova York agência de comunicação.

Além disso, 15% das imagens foram classificadas incorretamente como fita adesiva.

“Isso sugere que pode ser um problema para homens e mulheres. Precisamos saber se o erro de identificação era mais provável de acontecer com mulheres”, disse ela em um comunicado.

O mais interessante (e preocupante) é que a ferramenta identificou erroneamente 28% das mulheres como retratando fita adesiva.

Quase o dobro do número de homens, era o “palpite” mais comum para máscaras de rotulagem.

Quando o Computer Vision da Microsoft olhou para os conjuntos de imagens, sugeriu que 40 por cento das mulheres estavam usando um acessório de moda, enquanto 14 por cento usavam batom, em vez de manchar as máscaras.

“Mesmo como cientista de dados, que passa grande parte do seu tempo limpando e preparando conjuntos de dados, a ideia de viés de IA potencialmente prejudicial pode parecer um pouco abstrata; como algo que acontece com os modelos de outras pessoas e acidentalmente é incorporado aos produtos de dados de outras pessoas , “Elaborou Barsan.

O IBM Watson identificou corretamente 12% dos homens com máscaras, enquanto no caso das mulheres é correto apenas 5% das vezes.

No geral, para 40 por cento das imagens de mulheres, Serviços Cognitivos do Microsoft Azure identificou a máscara como um acessório de moda em comparação com apenas 13 por cento das imagens de homens.



“Indo um passo adiante, o modelo de visão por computador sugeriu que 14 por cento das imagens de mulheres mascaradas apresentavam batom, enquanto 12 por cento das imagens de homens confundiram a máscara com uma barba”, informou Barsan.

Esses rótulos parecem inofensivos em comparação, ela acrescentou, mas ainda é um sinal de preconceito subjacente e a expectativa da modelo de que tipo de coisas ela verá e não verá quando você alimentá-la com a imagem de uma mulher.

“Fiquei perplexo com o rótulo de fita adesiva porque sou mulher e, portanto, é mais provável que receba um rótulo de fita adesiva do Google em primeiro lugar. Mas o gênero não está nem perto da única dimensão que devemos considerar aqui “, lamentou ela.

Os pesquisadores escreveram que as máquinas buscavam inspiração em “um canto mais escuro da web, onde as mulheres são percebidas como vítimas de violência ou silenciadas”.


Source link

Deixe um comentário

O seu endereço de e-mail não será publicado.