Últimas

Casa Branca pressiona a indústria de tecnologia a agir contra deepfakes de IA sexualmente abusivos


A administração do presidente dos EUA, Joe Biden, está a pressionar a indústria tecnológica e as instituições financeiras a encerrar um mercado crescente de imagens sexuais abusivas feitas com tecnologia de inteligência artificial.

Novas ferramentas generativas de IA tornaram mais fácil transformar a imagem de alguém em um deepfake de IA sexualmente explícito e compartilhar essas imagens realistas em salas de bate-papo ou mídias sociais. As vítimas – sejam elas celebridades ou crianças – têm poucos recursos para impedir isso.

A Casa Branca quer a cooperação voluntária das empresas na ausência de legislação federal. Ao comprometerem-se com um conjunto de medidas específicas, as autoridades esperam que o sector privado possa conter a criação, disseminação e monetização de tais imagens não consensuais de IA, incluindo imagens explícitas de crianças.

“Quando a IA generativa entrou em cena, todos especularam sobre onde viriam os primeiros danos reais. E acho que temos a resposta”, disse o principal conselheiro científico de Biden, Arati Prabhakar, diretor do Escritório de Política Científica e Tecnológica da Casa Branca.

Ela descreveu à Associated Press uma “aceleração fenomenal” de imagens não consensuais alimentadas por ferramentas de IA e visando principalmente mulheres e meninas.

“Se você é uma adolescente, se você é uma criança gay, esses são os problemas que as pessoas estão enfrentando agora”, disse ela.

“Vimos uma aceleração por causa da IA ​​generativa que está se movendo muito rápido. E a coisa mais rápida que pode acontecer é as empresas avançarem e assumirem responsabilidades.”

Um documento compartilhado com a AP antes de seu lançamento na quinta-feira pede ação não apenas dos desenvolvedores de IA, mas também dos processadores de pagamento, instituições financeiras, provedores de computação em nuvem, mecanismos de busca e guardiões – ou seja, Apple e Google – que controlam o que chega às lojas de aplicativos móveis.

O sector privado deveria intensificar-se para “interromper a monetização” do abuso sexual baseado em imagens, restringindo o acesso ao pagamento, especialmente a sites que anunciam imagens explícitas de menores, afirmou a administração.

Prabhakar disse que muitas plataformas de pagamento e instituições financeiras já afirmam que não apoiarão os tipos de empresas que promovem imagens abusivas.

“Mas às vezes não é aplicado; às vezes eles não têm esses termos de serviço”, disse ela. “E esse é um exemplo de algo que poderia ser feito com muito mais rigor.”

Os provedores de serviços em nuvem e as lojas de aplicativos móveis também poderiam “restringir os serviços web e os aplicativos móveis comercializados com o propósito de criar ou alterar imagens sexuais sem o consentimento dos indivíduos”, diz o documento.

E quer seja gerada por IA ou uma foto real de nudez colocada na Internet, os sobreviventes deverão conseguir mais facilmente obter plataformas online para removê-los.

A vítima mais conhecida de imagens pornográficas falsas é Taylor Swift, cuja ardente base de fãs reagiu em janeiro, quando imagens abusivas do cantor e compositor geradas por IA começaram a circular nas redes sociais. A Microsoft prometeu fortalecer suas proteções depois que algumas das imagens do Swift foram atribuídas à sua ferramenta de design visual de IA.

Um número crescente de escolas nos EUA e em outros lugares também está lutando contra nus falsos gerados por IA que retratam seus alunos. Em alguns casos, descobriu-se que outros adolescentes criavam imagens manipuladas por IA e as compartilhavam com colegas de classe.

Imagens abusivas de Biden AI
Arati Prabhakar (à esquerda), diretora do Escritório de Política Científica e Tecnológica da Casa Branca, e Jennifer Klein, diretora do Conselho de Política de Gênero (AP) da Casa Branca

No verão passado, a administração Biden mediou compromissos voluntários da Amazon, Google, Meta, Microsoft e outras grandes empresas tecnológicas para colocar uma série de salvaguardas em novos sistemas de IA antes de os divulgar publicamente.

Isto foi seguido pela assinatura de Biden em outubro de uma ambiciosa ordem executiva destinada a orientar a forma como a IA é desenvolvida para que as empresas possam lucrar sem colocar a segurança pública em risco.

Embora focado em preocupações mais amplas sobre IA, incluindo a segurança nacional, acenou para o problema emergente das imagens de abuso infantil geradas por IA e encontrou melhores maneiras de detectá-lo.

Mas Biden também disse que as salvaguardas de IA do governo precisariam ser apoiadas por legislação. Um grupo bipartidário de senadores dos EUA está agora a pressionar o Congresso a gastar pelo menos 32 mil milhões de dólares durante os próximos três anos para desenvolver inteligência artificial e financiar medidas para orientá-la com segurança, embora tenha adiado em grande parte os apelos para transformar essas salvaguardas em lei.

Incentivar as empresas a intensificar e a assumir compromissos voluntários “não altera a necessidade subjacente de o Congresso tomar medidas neste domínio”, disse Jennifer Klein, diretora do Conselho de Política de Género da Casa Branca.

Leis de longa data já criminalizam a produção e posse de imagens sexuais de crianças, mesmo que sejam falsas. Os promotores federais apresentaram acusações no início deste mês contra um homem de Wisconsin que, segundo eles, usou um popular gerador de imagens de IA, Stable Diffusion, para criar milhares de imagens realistas geradas por IA de menores envolvidos em conduta sexual. Um advogado do homem se recusou a comentar após sua audiência de acusação na quarta-feira.

Mas quase não há supervisão sobre as ferramentas e serviços tecnológicos que tornam possível criar tais imagens.

O Observatório da Internet de Stanford disse em dezembro que encontrou milhares de imagens de suspeita de abuso sexual infantil no gigante banco de dados de IA LAION, um índice de imagens e legendas online que tem sido usado para treinar os principais criadores de imagens de IA, como a Stable Diffusion.

A Stability AI, com sede em Londres, proprietária das versões mais recentes do Stable Diffusion, disse esta semana que “não aprovou o lançamento” do modelo anterior supostamente usado pelo homem de Wisconsin. Esses modelos de código aberto, porque os seus componentes técnicos são divulgados publicamente na Internet, são difíceis de colocar de volta na garrafa.

Prabhakar disse que não é apenas a tecnologia de IA de código aberto que está causando danos.

“É um problema mais amplo”, disse ela. “Infelizmente, esta é uma categoria para a qual muitas pessoas parecem estar usando geradores de imagens. E é um lugar onde acabamos de ver uma grande explosão. Mas acho que não está claramente dividido em sistemas de código aberto e proprietários.”



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *