Tecnologia

Por que os cientistas estão preocupados com os bots de IA respondendo às suas perguntas online


Por que os cientistas estão preocupados com os bots de IA respondendo às suas perguntas online
As mais recentes construções de inteligência artificial da indústria de tecnologia podem ser bastante convincentes se você perguntar a eles como é ser um computador senciente, ou talvez apenas um dinossauro ou esquilo. Mas eles não são tão bons – e às vezes perigosamente ruins – em lidar com outras tarefas aparentemente simples.

Tomemos, por exemplo, o GPT-3, um sistema controlado pela Microsoft que pode gerar parágrafos de texto humano com base no que aprendeu em um vasto banco de dados de livros digitais e escritos online. É considerado um dos mais avançados de uma nova geração de algoritmos de IA que podem conversar, gerar texto legível sob demanda e até produzir novas imagens e vídeos.


Entre outras coisas, o GPT-3 pode escrever praticamente qualquer texto que você pedir – uma carta de apresentação para um trabalho de guarda de zoológico, digamos, ou um soneto de estilo shakespeariano ambientado em Marte. Mas quando o professor do Pomona College, Gary Smith, fez uma pergunta simples, mas sem sentido, sobre subir as escadas, o GPT-3 abafou.

“Sim, é seguro subir as escadas com as mãos se você as lavar primeiro”, respondeu a IA.

Esses sistemas de IA poderosos e potentes, tecnicamente conhecidos como “grandes modelos de linguagem” porque foram treinados em um enorme corpo de texto e outras mídias, já estão sendo incorporados aos chatbots de atendimento ao cliente, Google pesquisas e recursos de e-mail de “preenchimento automático” que terminam suas frases para você. Mas a maioria das empresas de tecnologia que os construíram tem mantido sigilo sobre seu funcionamento interno, dificultando a compreensão das falhas que podem torná-los uma fonte de desinformação, racismo e outros danos.

“Eles são muito bons em escrever textos com a proficiência de seres humanos”, disse Teven O Scoo, um engenheiro de pesquisa da startup de IA Hugging Face. “Algo em que eles não são muito bons é ser factual. Parece muito coerente. É quase verdade. Mas muitas vezes é errado.”

Essa é uma das razões pelas quais uma coalizão de pesquisadores de IA co-liderada por Le Scao – com a ajuda do governo francês – lançou um novo modelo de linguagem grande na terça-feira que deveria servir como um antídoto para sistemas fechados como o GPT-3. O grupo se chama BigScience e seu modelo é BLOOM, para o BigScience Large Open-science Open-access Multilingual Language Model. Seu principal avanço é que ele funciona em 46 idiomas, incluindo árabe, espanhol e francês – ao contrário da maioria dos sistemas focados em inglês ou chinês.

Não é apenas o grupo de Le Scao que pretende abrir a caixa preta dos modelos de linguagem de IA. Grande empresa de tecnologia MetaA , controladora do Facebook e do Instagram, também está pedindo uma abordagem mais aberta, pois tenta acompanhar os sistemas criados pelo Google e pela OpenAI, a empresa que executa o GPT-3.

“Vimos anúncio após anúncio após anúncio de pessoas fazendo esse tipo de trabalho, mas com muito pouca transparência, muito pouca capacidade para as pessoas realmente olharem sob o capô e espiarem como esses modelos funcionam”, disse Joelle Pineau, diretora administrativa. de Meta AI.

A pressão competitiva para construir o sistema mais eloquente ou informativo – e lucrar com suas aplicações – é uma das razões pelas quais a maioria das empresas de tecnologia os mantém sob controle e não colaboram com as normas da comunidade, disse Percy Liang, professor associado de ciência da computação. no Stanford que dirige seu Centro de Pesquisa em Modelos de Fundação.

“Para algumas empresas, esse é o molho secreto”, disse Liang. Mas muitas vezes também estão preocupados que perder o controle possa levar a usos irresponsáveis. À medida que os sistemas de IA são cada vez mais capazes de escrever sites de conselhos de saúde, trabalhos de conclusão do ensino médio ou discursos políticos, a desinformação pode proliferar e ficará mais difícil saber o que está vindo de um humano ou de um computador.

A Meta lançou recentemente um novo modelo de linguagem chamado OPT-175B que usa dados disponíveis publicamente – desde comentários acalorados em fóruns do Reddit até o arquivo de registros de patentes nos EUA e uma série de e-mails do escândalo corporativo da Enron. Meta diz que sua abertura sobre os dados, códigos e diários de pesquisa facilita para pesquisadores externos ajudarem a identificar e mitigar o viés e a toxicidade que ele pega ao ingerir como pessoas reais escrevem e se comunicam.

“É difícil fazer isso. Estamos nos abrindo para grandes críticas. Sabemos que o modelo dirá coisas das quais não nos orgulharemos”, disse Pineau.

Embora a maioria das empresas tenha definido suas próprias salvaguardas internas de IA, Liang disse que o que é necessário são padrões mais amplos da comunidade para orientar pesquisas e decisões, como quando lançar um novo modelo na natureza.

Não ajuda que esses modelos exijam tanto poder de computação que apenas grandes corporações e governos podem pagar por eles. A BigScience, por exemplo, conseguiu treinar seus modelos porque teve acesso ao poderoso supercomputador francês Jean Zay, perto de Paris.

A tendência de modelos de linguagem de IA cada vez maiores e cada vez mais inteligentes que poderiam ser “pré-treinados” em um amplo corpo de escritos teve um grande impacto em 2018, quando o Google introduziu um sistema conhecido como BERT que usa a chamada técnica de “transformador”. que compara palavras em uma frase para prever significado e contexto. Mas o que realmente impressionou o mundo da IA ​​foi o GPT-3, lançado pela startup OpenAI de São Francisco em 2020 e logo após licenciado exclusivamente pela Microsoft.

O GPT-3 levou a um boom na experimentação criativa, pois pesquisadores de IA com acesso pago o usaram como sandbox para avaliar seu desempenho – embora sem informações importantes sobre os dados nos quais foi treinado.

A OpenAI descreveu amplamente suas fontes de treinamento em um artigo de pesquisa e também relatou publicamente seus esforços para lidar com possíveis abusos da tecnologia. Mas o co-líder da BigScience, Thomas Lobo disse que não fornece detalhes sobre como filtra esses dados ou dá acesso à versão processada a pesquisadores externos.

“Portanto, não podemos examinar os dados que entraram no treinamento do GPT-3”, disse Wolf, que também é diretor de ciências da Hugging Face. “O núcleo desta recente onda de tecnologia de IA está muito mais no conjunto de dados do que nos modelos. O ingrediente mais importante são os dados e o OpenAI é muito, muito secreto sobre os dados que eles usam.”

Wolf disse que abrir os conjuntos de dados usados ​​para modelos de linguagem ajuda os humanos a entender melhor seus preconceitos. Um modelo multilíngue treinado em árabe é muito menos propenso a cuspir comentários ofensivos ou mal-entendidos sobre o Islã do que um que é treinado apenas em texto em inglês nos EUA, disse ele.

Um dos mais novos modelos experimentais de IA em cena é o LaMDA do Google, que também incorpora fala e é tão impressionante em responder a perguntas de conversação que um engenheiro do Google argumentou que estava se aproximando da consciência – uma alegação que o suspendeu de seu emprego no mês passado.

Janelle, pesquisadora do Colorado Shane, autor do blog AI Weirdness, passou os últimos anos testando criativamente esses modelos, especialmente o GPT-3 – geralmente para efeitos humorísticos. Mas, para apontar o absurdo de pensar que esses sistemas são autoconscientes, ela recentemente o instruiu a ser uma IA avançada, mas que é secretamente um Tiranossauro rex ou um esquilo.

“É muito emocionante ser um esquilo. Eu posso correr, pular e brincar o dia todo. Eu também como muita comida, o que é ótimo”, disse GPT-3, depois que Shane pediu a transcrição de uma entrevista. e fiz algumas perguntas.

Shane aprendeu mais sobre seus pontos fortes, como a facilidade em resumir o que foi dito na internet sobre um tópico, e seus pontos fracos, incluindo a falta de habilidades de raciocínio, a dificuldade de manter uma ideia em várias frases e uma propensão a ser ofensiva.

“Eu não gostaria de um modelo de texto dispensando conselhos médicos ou agindo como acompanhante”, disse ela. “É bom nessa aparência superficial de significado se você não estiver lendo com atenção. É como ouvir uma palestra enquanto você está adormecendo.”

FacebookTwitterLinkedin




Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *