Tecnologia

inteligência artificial: o Google disse a seus cientistas para ‘dar um tom positivo’ na pesquisa de IA: Report – Latest News


Alphabet Inc’s Google este ano passou a reforçar o controle sobre os trabalhos de seus cientistas, lançando um “tópicos sensíveis“revisão e, em pelo menos três casos, os autores solicitados a absterem-se de lançar sua tecnologia de forma negativa, conforme comunicados internos e entrevistas com pesquisadores envolvidos no trabalho.

O novo procedimento de revisão do Google pede que os pesquisadores consultem as equipes jurídicas, de políticas e de relações públicas antes de abordar tópicos como análise de rosto e sentimento e categorizações de raça, gênero ou afiliação política, de acordo com páginas internas que explicam a política.

“Os avanços em tecnologia e a crescente complexidade de nosso ambiente externo estão levando cada vez mais a situações em que projetos aparentemente inofensivos levantam questões éticas, de reputação, regulatórias ou legais”, declarou uma das páginas para a equipe de pesquisa. A Reuters não conseguiu determinar a data da postagem, embora três funcionários atuais tenham afirmado que a política começou em junho.

O Google se recusou a comentar esta história.

O processo de “tópicos delicados” adiciona uma rodada de escrutínio à análise padrão do Google de documentos para armadilhas como a divulgação de segredos comerciais, disseram oito funcionários atuais e ex-funcionários.

Para alguns projetos, funcionários do Google intervieram em estágios posteriores. Um gerente sênior do Google, revisando um estudo sobre tecnologia de recomendação de conteúdo pouco antes da publicação neste verão, disse aos autores para “tomarem muito cuidado para obter um tom positivo”, de acordo com correspondência interna lida à Reuters.

O gerente acrescentou: “Isso não significa que devemos nos esconder dos desafios reais” colocados pelo software.

A correspondência subsequente de um pesquisador aos revisores mostra os autores “atualizados para remover todas as referências aos produtos do Google”. Um rascunho visto pela Reuters mencionou propriedade do Google Youtube.

Quatro pesquisadores, incluindo a cientista sênior Margaret Mitchell, disseram acreditar que o Google está começando a interferir em estudos cruciais de potenciais danos à tecnologia.

“Se estivermos pesquisando o que é apropriado devido à nossa experiência e não tivermos permissão para publicar isso por motivos que não estão de acordo com a revisão por pares de alta qualidade, estaremos enfrentando um sério problema de censura”, disse Mitchell.

O Google afirma em seu site voltado ao público que seus cientistas têm liberdade “substancial”.

Tensões entre o Google e alguns de seus funcionários surgiram neste mês após a saída abrupta do cientista Timnit Gebru, que liderou uma equipe de 12 pessoas com Mitchell focada na ética em inteligência artificial Programas (AI)

Gebru diz que o Google a demitiu depois que ela questionou uma ordem para não publicar pesquisas alegando que a IA que imita a fala poderia prejudicar populações marginalizadas. O Google disse que aceitou e acelerou sua renúncia. Não foi possível determinar se o artigo de Gebru passou por uma revisão de “tópicos sensíveis”.

O vice-presidente sênior do Google, Jeff Dean, disse em um comunicado este mês que o artigo de Gebru se concentrou em danos potenciais, sem discutir os esforços em andamento para resolvê-los.

Dean acrescentou que o Google apóia a bolsa de estudos de ética em IA e está “trabalhando ativamente para melhorar nossos processos de revisão de papel, porque sabemos que muitas verificações e balanços podem se tornar incômodos”.

‘TÓPICOS SENSÍVEIS’

A explosão em pesquisa e desenvolvimento de IA em toda a indústria de tecnologia levou autoridades nos Estados Unidos e em outros lugares a propor regras para seu uso. Alguns citaram estudos científicos que mostram que o software de análise facial e outras IA podem perpetuar preconceitos ou corroer a privacidade.

Nos últimos anos, o Google incorporou IA em todos os seus serviços, usando a tecnologia para interpretar consultas de pesquisa complexas, decidir recomendações no YouTube e preencher automaticamente frases em Gmail. Seus pesquisadores publicaram mais de 200 artigos no ano passado sobre o desenvolvimento de IA de maneira responsável, entre mais de 1.000 projetos no total, disse Dean.

Estudar os serviços do Google para preconceitos está entre os “tópicos sensíveis” da nova política da empresa, de acordo com uma página interna da web. Entre dezenas de outros “tópicos sensíveis” listados estão a indústria do petróleo, China, Irã, Israel, COVID-19, segurança residencial, seguro, dados de localização, religião, veículos autônomos, telecomunicações e sistemas que recomendam ou personalizam conteúdo da web.

O artigo do Google, para o qual os autores foram instruídos a adotar um tom positivo, discute a recomendação de IA, que serviços como o YouTube empregam para personalizar os feeds de conteúdo dos usuários. Um rascunho revisado pela Reuters incluía “preocupações” de que essa tecnologia pudesse promover “desinformação, resultados discriminatórios ou injustos” e “diversidade insuficiente de conteúdo”, bem como levar à “polarização política”.

A publicação final afirma que os sistemas podem promover “informações precisas, justiça e diversidade de conteúdo”. A versão publicada, intitulada “Para que você está otimizando? Alinhando sistemas de recomendação com valores humanos”, omitiu o crédito aos pesquisadores do Google. A Reuters não conseguiu determinar por quê.



Um artigo este mês sobre IA para compreender uma língua estrangeira suavizou uma referência a como o produto Google Translate estava cometendo erros após um pedido de revisores da empresa, disse uma fonte. A versão publicada diz que os autores usaram o Google Translate, e uma frase separada diz que parte do método de pesquisa era “revisar e corrigir traduções imprecisas.”

Em um artigo publicado na semana passada, um funcionário do Google descreveu o processo como um “longo percurso”, envolvendo mais de 100 trocas de e-mail entre pesquisadores e revisores, de acordo com correspondência interna.

Os pesquisadores descobriram que a IA pode fornecer dados pessoais e material protegido por direitos autorais – incluindo uma página de um romance de “Harry Potter” – que foi retirado do Internet para desenvolver o sistema.

Um rascunho descreveu como tais divulgações podem infringir direitos autorais ou violar a lei de privacidade europeia, disse uma pessoa familiarizada com o assunto. Após as análises da empresa, os autores removeram os riscos legais e o Google publicou o artigo.


Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *