Últimas

Europa chega a acordo sobre as primeiras regras abrangentes de IA do mundo


Os negociadores da União Europeia fecharam um acordo sobre as primeiras regras abrangentes de inteligência artificial do mundo.

O acordo abre caminho para a supervisão legal da tecnologia utilizada em serviços populares de IA generativa, como o ChatGPT, que prometeu transformar a vida quotidiana e estimulou alertas sobre perigos existenciais para a humanidade.

Os negociadores do Parlamento Europeu e dos 27 países membros do bloco superaram grandes diferenças em pontos controversos, incluindo a IA generativa e o uso policial de vigilância de reconhecimento facial para assinar um acordo político provisório para a Lei de Inteligência Artificial.

“Negócio!” tuitou o comissário europeu Thierry Breton. O Parlamento do bloco e os estados membros “chegaram finalmente a um acordo político sobre a Lei de Inteligência Artificial!”, tuitou a comissão parlamentar que co-lidera os esforços de negociação do órgão.

Isso aconteceu depois de uma maratona de negociações a portas fechadas esta semana, com uma sessão durando 22 horas antes do início de um segundo turno na manhã de sexta-feira.

As autoridades forneceram poucos detalhes sobre o que exatamente fará parte da eventual lei, que não entrará em vigor até 2025, no mínimo.

Eles estavam sob pressão para garantir uma vitória política para a legislação emblemática, mas esperava-se que deixassem a porta aberta para novas negociações para resolver as letras miúdas, provavelmente trazendo mais lobby nos bastidores.

A UE assumiu a liderança na corrida global para definir barreiras de segurança para a IA quando revelou o primeiro rascunho do seu livro de regras em 2021. O recente boom da IA ​​generativa, no entanto, fez com que as autoridades europeias se esforçassem para atualizar uma proposta preparada para servir de modelo para o mundo.

Sistemas generativos de IA, como o ChatGPT da OpenAI, explodiram na consciência mundial, deslumbrando os usuários com a capacidade de produzir textos, fotos e músicas semelhantes aos humanos, mas levantando temores sobre os riscos que a tecnologia em rápido desenvolvimento representa para empregos, privacidade e proteção de direitos autorais e até mesmo para humanos. a própria vida.


Um logotipo ChapGPT
Serviços generativos de IA, como ChatGPT, prometeram transformar a vida cotidiana (Matt Rourke/AP)

Agora, os EUA, o Reino Unido, a China e coligações globais como o G7 surgiram com as suas próprias propostas para regulamentar a IA, embora ainda estejam a alcançar a Europa.

Uma vez elaborada a versão final da Lei da IA ​​da UE, o texto precisa da aprovação dos 705 políticos do bloco antes de se separarem para as eleições a nível da UE no próximo ano. Espera-se que essa votação seja uma formalidade.

A Lei da IA ​​foi originalmente concebida para mitigar os perigos de funções específicas da IA ​​com base no seu nível de risco, de baixo a inaceitável. Mas os políticos pressionaram para expandi-lo para modelos básicos, os sistemas avançados que sustentam serviços de IA de uso geral, como ChatGPT e o chatbot Bard do Google.

Os modelos de fundação pareciam destinados a ser um dos maiores obstáculos para a Europa. No entanto, os negociadores conseguiram chegar a um compromisso provisório no início das negociações, apesar da oposição liderada pela França, que apelou, em vez disso, à auto-regulação para ajudar as empresas europeias de IA generativa que competem com grandes rivais dos EUA, incluindo a Microsoft, patrocinadora da OpenAI.

Também conhecidos como grandes modelos de linguagem, esses sistemas são treinados em vastos acervos de obras escritas e imagens extraídas da Internet. Eles dão aos sistemas de IA generativos a capacidade de criar algo novo, diferentemente da IA ​​tradicional, que processa dados e conclui tarefas usando regras predeterminadas.

Nos termos do acordo, os modelos básicos mais avançados que representam os maiores “riscos sistémicos” serão alvo de um exame mais minucioso, incluindo requisitos para divulgar mais informações, como a quantidade de poder computacional utilizado para treinar os sistemas.

Os investigadores alertaram que estes poderosos modelos de base, construídos por um punhado de grandes empresas tecnológicas, poderiam ser usados ​​para potenciar a desinformação e a manipulação online, os ataques cibernéticos ou a criação de armas biológicas.

Os grupos de defesa dos direitos humanos também alertam que a falta de transparência sobre os dados utilizados para treinar os modelos representa riscos para a vida quotidiana, porque funcionam como estruturas básicas para os programadores de software que constroem serviços alimentados por IA.

O que se tornou o tema mais espinhoso foram os sistemas de vigilância de reconhecimento facial alimentados por IA, e os negociadores encontraram um compromisso após intensa negociação.

Os políticos europeus queriam uma proibição total da utilização pública de digitalização facial e outros sistemas de “identificação biométrica remota” devido a preocupações com a privacidade, enquanto os governos dos países membros queriam isenções para que as autoridades pudessem utilizá-las para combater crimes graves, como a exploração sexual infantil ou ataques terroristas.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *