Novos algoritmos de IA podem detectar trolls online: Estudo – Últimas Notícias
Os métodos atuais para obter esses dados de mídia social são totalmente automatizados e não são interpretáveis ou dependem de um conjunto estático de palavras-chave, que podem ficar desatualizadas rapidamente.
Nenhum dos métodos é muito eficaz, de acordo com Maya Srikanth, do California Institute of Technology (Caltech) nos EUA.
“Não é escalável que humanos tentem fazer esse trabalho manualmente, e esses humanos são potencialmente tendenciosos”, disse Srikanth.
“Por outro lado, a busca por palavras-chave sofre com a velocidade com que as conversas online evoluem. Novos termos surgem e os termos antigos mudam de significado; portanto, uma palavra-chave usada sinceramente em um dia pode ser sarcástica no próximo”, disse ela.
A equipe, incluindo a Anima Anandkumar da Caltech, usou o modelo GloVe (Vetores Globais para Representação de Palavras) que usa algoritmos de aprendizado de máquina para descobrir novas e relevantes palavras-chave.
Aprendizado de máquina é um aplicativo de IA que fornece aos sistemas a capacidade de aprender e melhorar automaticamente a partir da experiência sem ser explicitamente programado.
O GloVe é um modelo de incorporação de palavras, o que significa que representa palavras em um Espaço vetorial, onde a “distância” entre duas palavras é uma medida de sua similaridade linguística ou semântica.
Começando com uma palavra-chave, esse modelo pode ser usado para encontrar outras pessoas que estão intimamente relacionadas a essa palavra para revelar grupos de termos relevantes que estão realmente em uso.
Por exemplo, pesquisar no Twitter o uso de “MeToo” em conversas gerou grupos de hashtags relacionadas como “SupportSurvivors”, “ImWithHer” e “NotSilent”.
Essa abordagem fornece aos pesquisadores uma palavra-chave dinâmica e em constante evolução, definida para pesquisa.
No entanto, não basta apenas saber se uma certa conversa está relacionada ao tópico de interesse; contexto importa, disseram os pesquisadores.
Para isso, o GloVe mostra até que ponto determinadas palavras-chave estão relacionadas, fornecendo informações sobre como elas estão sendo usadas.
Por exemplo, em um online Reddit fórum dedicado à misoginia, a palavra “mulher” foi usada em estreita associação com as palavras “sexual”, “negativo” e “relação sexual”.
Nas postagens do Twitter sobre o movimento #MeToo, era mais provável que a palavra “mulher” fosse associada aos termos “empresas”, “desejo” e “vítimas”.
O projeto era uma prova de conceito destinada a um dia dar às plataformas de mídia social uma ferramenta mais poderosa para identificar o assédio online, disseram os pesquisadores.
“O campo da pesquisa em IA está se tornando mais inclusivo, mas sempre há pessoas que resistem à mudança”, disse Anandkumar.
“Felizmente, as ferramentas que estamos desenvolvendo agora ajudarão a combater todos os tipos de assédio no futuro”, disse ela.
A pesquisa foi apresentada em 14 de dezembro do ano passado no workshop AI for Social Good na Conferência sobre Sistemas de Processamento de Informação Neural em Vancouver, Canadá.
Source link