Tecnologia

Microsoft: Microsoft revela ferramenta para combater falsificações e conteúdo manipulado – Últimas Notícias


Seattle: Para combater a disseminação da desinformação, Microsoft revelou uma nova ferramenta que detectará deepfakes ou mídia sintética que são fotos, vídeos ou arquivos de áudio manipulados por Inteligência artificial (AI) que são muito difíceis de identificar se são falsos ou não.

A ferramenta chamada Microsoft Video Authenticator pode analisar uma foto ou vídeo para fornecer uma chance percentual, ou pontuação de confiança, de que o conteúdo seja manipulado artificialmente.

No caso de um vídeo, ele pode fornecer essa porcentagem em tempo real em cada quadro à medida que o vídeo é reproduzido.

A ferramenta funciona detectando o limite de mistura de elementos deepfake e desbotamento sutil ou tons de cinza que podem não ser detectados pelo olho humano, disse a Microsoft em um blog na terça-feira.

Deepfakes são falsificações de vídeo que fazem as pessoas parecerem estar dizendo coisas que nunca disseram, como os populares vídeos falsificados de Facebook O CEO Zuckerberg e a presidente da Câmara dos EUA, Nancy Pelosi, que se tornou viral no ano passado.

“Esperamos que os métodos de geração de mídia sintética continuem a crescer em sofisticação. Como todos os métodos de detecção de IA têm taxas de falha, temos que entender e estar prontos para responder a falsificações profundas que escapam aos métodos de detecção”, disse Tom Burt, vice-presidente corporativo Presidente de Segurança e Confiança do Cliente.

Existem poucas ferramentas hoje para ajudar a garantir aos leitores que a mídia que estão vendo online veio de uma fonte confiável e que não foi alterada.

A Microsoft também anunciou outra tecnologia que pode detectar conteúdo manipulado e garantir às pessoas que a mídia que estão vendo é autêntica.

Essa tecnologia possui dois componentes.

O primeiro é uma ferramenta integrada Microsoft Azure que permite a um produtor de conteúdo adicionar hashes e certificados digitais a uma parte do conteúdo.

Os hashes e certificados então vivem com o conteúdo como metadados onde quer que ele viaje online.

“O segundo é um leitor que pode existir como uma extensão do navegador ou em outras formas que verifica os certificados e corresponde aos hashes, permitindo que as pessoas saibam com alto grau de precisão que o conteúdo é autêntico e que não foi alterado, como além de fornecer detalhes sobre quem o produziu “, explicou a Microsoft.


Conteúdo falso de áudio ou vídeo, também conhecido como ‘Deepfakes’, foi classificado como o uso mais preocupante de inteligência artificial (IA) para crimes ou terrorismo. De acordo com um estudo mais recente, publicado na revista Crime Science, a IA pode ser mal utilizada de 20 maneiras para facilitar o crime nos próximos 15 anos.

Deepfakes podem parecer fazer as pessoas dizerem coisas que não disseram ou estar em lugares onde não estavam, e o fato de serem gerados por IA que pode continuar a aprender torna inevitável que superem a tecnologia de detecção convencional.

“No entanto, no curto prazo, como nas próximas eleições nos Estados Unidos, as tecnologias de detecção avançada podem ser uma ferramenta útil para ajudar os usuários mais exigentes a identificar deepfakes”, disse a Microsoft.

“Nenhuma organização será capaz de ter um impacto significativo no combate à desinformação e deepfakes prejudiciais”, acrescentou.

A Microsoft também anunciou várias parcerias nesse sentido, incluindo a AI Foundation, uma empresa comercial e sem fins lucrativos com sede nos Estados Unidos, e um consórcio de empresas de mídia que testará sua tecnologia de autenticidade e ajudará a promovê-la como um padrão que pode ser amplamente adotado .



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *