Últimas

Biden e Harris se reúnem com CEOs para discutir riscos de inteligência artificial | Noticias do mundo


A vice-presidente Kamala Harris se reuniu na quinta-feira com os chefes do Google, Microsoft e duas outras empresas que desenvolvem inteligência artificial enquanto o governo Biden lança iniciativas destinadas a garantir que a tecnologia em rápida evolução melhore vidas sem colocar em risco os direitos e a segurança das pessoas.

O presidente dos EUA, Joe Biden, e a vice-presidente, Kamala Harris
O presidente dos EUA, Joe Biden, e a vice-presidente, Kamala Harris

O presidente Joe Biden apareceu brevemente na reunião na Sala Roosevelt da Casa Branca, dizendo que esperava que o grupo pudesse “nos educar” sobre o que é mais necessário para proteger e promover a sociedade.

“O que vocês estão fazendo tem um enorme potencial e um enorme perigo”, disse Biden aos CEOs, de acordo com um vídeo postado em sua conta no Twitter.

A popularidade do chatbot de IA ChatGPT – até Biden o experimentou, disseram funcionários da Casa Branca na quinta-feira – provocou uma onda de investimentos comerciais em ferramentas de IA que podem escrever textos convincentemente semelhantes aos humanos e produzir novas imagens, músicas e códigos de computador.

Mas a facilidade com que pode imitar os humanos levou os governos de todo o mundo a considerar como poderia acabar com empregos, enganar as pessoas e espalhar a desinformação.

A administração democrata anunciou um investimento de US$ 140 milhões para estabelecer sete novos institutos de pesquisa de IA.

Além disso, espera-se que o Escritório de Administração e Orçamento da Casa Branca emita orientações nos próximos meses sobre como as agências federais podem usar ferramentas de IA. Há também um compromisso independente dos principais desenvolvedores de IA de participar de uma avaliação pública de seus sistemas em agosto na convenção de hackers DEF CON de Las Vegas.

Mas a Casa Branca também precisa tomar medidas mais fortes, já que os sistemas de IA construídos por essas empresas estão sendo integrados a milhares de aplicativos de consumo, disse Adam Conner, do Center for American Progress, de tendência liberal.

“Estamos em um momento que nos próximos meses realmente determinará se lideramos ou não ou cedemos a liderança a outras partes do mundo, como temos em outros espaços regulatórios de tecnologia, como privacidade ou regulamentação de grandes plataformas online, disse Conner.

A reunião foi lançada como uma forma de Harris e funcionários do governo discutirem os riscos no atual desenvolvimento de IA com o CEO do Google, Sundar Pichai, o CEO da Microsoft, Satya Nadella, e os chefes de duas startups influentes: a Anthropic, apoiada pelo Google, e a OpenAI, apoiada pela Microsoft. do ChatGPT.

Harris disse em um comunicado após a reunião a portas fechadas que disse aos executivos que “o setor privado tem uma responsabilidade ética, moral e legal de garantir a segurança de seus produtos”.

O ChatGPT liderou uma enxurrada de novas ferramentas de “IA generativa”, aumentando as preocupações éticas e sociais sobre sistemas automatizados treinados em vastos conjuntos de dados.

Algumas das empresas, incluindo a OpenAI, mantêm segredo sobre os dados sobre os quais seus sistemas de IA foram treinados. Isso tornou mais difícil entender por que um chatbot está produzindo respostas tendenciosas ou falsas a solicitações ou para lidar com preocupações sobre se está roubando obras protegidas por direitos autorais.

As empresas preocupadas em serem responsabilizadas por algo em seus dados de treinamento também podem não ter incentivos para rastreá-los rigorosamente de uma forma que seria útil “em termos de algumas das preocupações sobre consentimento, privacidade e licenciamento”, disse Margaret Mitchell, cientista-chefe de ética na startup de IA Hugging Face.

“Pelo que sei da cultura tecnológica, isso simplesmente não é feito”, disse ela.

Alguns pediram leis de divulgação para forçar os provedores de IA a abrir seus sistemas para mais escrutínio de terceiros. Mas com os sistemas de IA sendo construídos sobre modelos anteriores, não será fácil fornecer maior transparência após o fato.

“Realmente caberá aos governos decidir se isso significa que você terá que jogar fora todo o trabalho que fez ou não”, disse Mitchell. “Claro, meio que imagino que pelo menos nos Estados Unidos, o as decisões se inclinarão para as corporações e apoiarão o fato de que isso já foi feito. Teria ramificações tão grandes se todas essas empresas tivessem que jogar fora todo esse trabalho e começar de novo.”

Embora a Casa Branca tenha sinalizado na quinta-feira uma abordagem colaborativa com o setor, as empresas que constroem ou usam IA também estão enfrentando um escrutínio intenso de agências dos EUA, como a Comissão Federal de Comércio, que impõe leis de proteção ao consumidor e antitruste.

As empresas também enfrentam regras potencialmente mais rígidas na União Europeia, onde os negociadores estão dando os retoques finais nos regulamentos de IA que podem colocar o bloco de 27 nações na vanguarda do esforço global para estabelecer padrões para a tecnologia.

Quando a UE elaborou pela primeira vez sua proposta de regras de IA em 2021, o foco estava em controlar aplicativos de alto risco que ameaçam a segurança ou os direitos das pessoas, como escaneamento facial ao vivo ou sistemas de pontuação social do governo, que julgam as pessoas com base em seu comportamento. Chatbots mal foram mencionados.

Mas, refletindo a rapidez com que a tecnologia de IA se desenvolveu, os negociadores em Bruxelas têm se esforçado para atualizar suas propostas para levar em conta sistemas de IA de uso geral, como os construídos pela OpenAI. As disposições adicionadas ao projeto de lei exigiriam que os chamados modelos de IA de fundação divulgassem material de direitos autorais usado para treinar os sistemas, de acordo com um rascunho parcial recente da legislação obtido pela Associated Press.

Um comitê do Parlamento Europeu deve votar o projeto de lei na próxima semana, mas pode levar anos até que a Lei de IA entre em vigor.

Em outras partes da Europa, a Itália proibiu temporariamente o ChatGPT devido a uma violação das rígidas regras de privacidade europeias, e o órgão regulador da concorrência da Grã-Bretanha disse na quinta-feira que está abrindo uma revisão do mercado de IA.

Nos EUA, colocar sistemas de IA para inspeção pública na conferência de hackers DEF CON pode ser uma nova maneira de testar riscos, embora provavelmente não seja tão completo quanto uma auditoria prolongada, disse Heather Frase, membro sênior do Centro de Segurança e Segurança da Universidade de Georgetown. Tecnologia emergente.

Juntamente com Google, Microsoft, OpenAI e Anthropic, as empresas que a Casa Branca diz que concordaram em participar incluem a Hugging Face, a fabricante de chips Nvidia e a Stability AI, conhecida por seu gerador de imagens Stable Diffusion.

“Esta seria uma maneira de pessoas muito habilidosas e criativas fazerem isso em uma espécie de grande explosão”, disse Frase.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *