Tecnologia

Novos algoritmos de IA podem detectar trolls online: Estudo – Últimas Notícias


Novo inteligência artificial Os algoritmos (AI) podem monitorar as conversas de mídia social online à medida que elas evoluem, o que pode levar a uma maneira eficaz e automatizada de identificar trolls online no futuro, de acordo com pesquisadores, incluindo os de origem indiana. A prevenção do assédio online requer a detecção rápida de postagens ofensivas, assediadoras e negativas nas mídias sociais, o que, por sua vez, exige o monitoramento das interações online.

Os métodos atuais para obter esses dados de mídia social são totalmente automatizados e não são interpretáveis ​​ou dependem de um conjunto estático de palavras-chave, que podem ficar desatualizadas rapidamente.

Nenhum dos métodos é muito eficaz, de acordo com Maya Srikanth, do California Institute of Technology (Caltech) nos EUA.

“Não é escalável que humanos tentem fazer esse trabalho manualmente, e esses humanos são potencialmente tendenciosos”, disse Srikanth.

“Por outro lado, a busca por palavras-chave sofre com a velocidade com que as conversas online evoluem. Novos termos surgem e os termos antigos mudam de significado; portanto, uma palavra-chave usada sinceramente em um dia pode ser sarcástica no próximo”, disse ela.

A equipe, incluindo a Anima Anandkumar da Caltech, usou o modelo GloVe (Vetores Globais para Representação de Palavras) que usa algoritmos de aprendizado de máquina para descobrir novas e relevantes palavras-chave.

Aprendizado de máquina é um aplicativo de IA que fornece aos sistemas a capacidade de aprender e melhorar automaticamente a partir da experiência sem ser explicitamente programado.

O GloVe é um modelo de incorporação de palavras, o que significa que representa palavras em um Espaço vetorial, onde a “distância” entre duas palavras é uma medida de sua similaridade linguística ou semântica.

Começando com uma palavra-chave, esse modelo pode ser usado para encontrar outras pessoas que estão intimamente relacionadas a essa palavra para revelar grupos de termos relevantes que estão realmente em uso.

Por exemplo, pesquisar no Twitter o uso de “MeToo” em conversas gerou grupos de hashtags relacionadas como “SupportSurvivors”, “ImWithHer” e “NotSilent”.

Essa abordagem fornece aos pesquisadores uma palavra-chave dinâmica e em constante evolução, definida para pesquisa.

No entanto, não basta apenas saber se uma certa conversa está relacionada ao tópico de interesse; contexto importa, disseram os pesquisadores.

Para isso, o GloVe mostra até que ponto determinadas palavras-chave estão relacionadas, fornecendo informações sobre como elas estão sendo usadas.

Por exemplo, em um online Reddit fórum dedicado à misoginia, a palavra “mulher” foi usada em estreita associação com as palavras “sexual”, “negativo” e “relação sexual”.


Nas postagens do Twitter sobre o movimento #MeToo, era mais provável que a palavra “mulher” fosse associada aos termos “empresas”, “desejo” e “vítimas”.

O projeto era uma prova de conceito destinada a um dia dar às plataformas de mídia social uma ferramenta mais poderosa para identificar o assédio online, disseram os pesquisadores.

“O campo da pesquisa em IA está se tornando mais inclusivo, mas sempre há pessoas que resistem à mudança”, disse Anandkumar.

“Felizmente, as ferramentas que estamos desenvolvendo agora ajudarão a combater todos os tipos de assédio no futuro”, disse ela.

A pesquisa foi apresentada em 14 de dezembro do ano passado no workshop AI for Social Good na Conferência sobre Sistemas de Processamento de Informação Neural em Vancouver, Canadá.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *