Tecnologia

Engenheiro demitido diz que problema do chatbot também pode ser ‘problema do Google’


Engenheiro demitido diz que problema do chatbot também pode ser 'problema do Google'
GoogleA controvérsia do chatbot de IA continua a aumentar. O ex-engenheiro do Google Blake Lemoine fez novas acusações contra o chatbot com inteligência artificial (IA) em uma entrevista ao Business Insider. Ele disse que o chatbot tem visões discriminatórias contra as de algumas raças e religiões. O Google demitiu Lemoine no mês passado depois que ele afirmou que o chatbot do Google, conhecido como LaMDA, ou Language Model for Dialogue Applications, é senciente (desenvolveu sentimentos humanos). O trabalho de Lemoine incluía testar o chatbot.

O Google inicialmente enviou Lemoine em licença remunerada depois que ele supostamente deu alguns documentos relacionados ao chatbot a um senador dos EUA não identificado, alegando que é tendencioso. Ele também publicou supostas transcrições de seu bate-papo com o Bot online.


‘problema do Google’
Na entrevista, Lemoine deu exemplos que ele afirma provar que o chatbot do Google é tendencioso em relação a certas religiões e raças. Dando exemplos, Lemoine afirmou que, quando solicitado a fazer uma imitação de um homem negro da Geórgia, o bot disse: “Vamos comer frango frito e waffles”. Da mesma forma, segundo ele, o Bot respondeu que os muçulmanos são mais violentos do que os cristãos quando questionados sobre diferentes grupos religiosos.

Lemoine continua a culpar esses supostos vieses no chatbot de IA pela falta de diversidade de engenheiros do Google que os projetam. “Os tipos de problemas que essa IA apresenta, as pessoas que as constroem são cegas para eles. Eles nunca foram pobres. Eles nunca viveram em comunidades de cor. Eles nunca viveram nas nações em desenvolvimento do mundo”, ele disse. disse. “Eles não têm ideia de como essa IA pode afetar pessoas diferentes deles”, acrescentou.

De acordo com Lemoine, há grandes quantidades de dados faltando para muitas comunidades e culturas ao redor do mundo. Ele disse que, se o Google quiser desenvolver essa IA, deve ter a responsabilidade moral de sair e coletar os dados relevantes que não estão na Internet. “Caso contrário, tudo o que você está fazendo é criar IA que será tendenciosa para valores ocidentais ricos e brancos.”

O que o Google disse
“É lamentável que, apesar do longo envolvimento com este tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto”, disse o porta-voz do Google. Brian Gabriel disse em um comunicado sobre as alegações de Lemoine. “Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake”, acrescentou.

FacebookTwitterLinkedin




Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *