Últimas

As primeiras regras de IA do mundo na Europa definidas para aprovação final


Os legisladores da União Europeia devem dar a aprovação final à lei de inteligência artificial do bloco de 27 países, colocando as regras líderes mundiais no caminho certo para entrar em vigor ainda este ano.

Os membros do Parlamento Europeu estão prestes a votar a favor da Lei da Inteligência Artificial cinco anos depois de ter sido proposta pela primeira vez.

Espera-se que a Lei da IA ​​funcione como uma orientação global para outros governos que lutam para regulamentar a tecnologia em rápido desenvolvimento.

Dragos Tudorache, um legislador romeno que foi co-líder das negociações do Parlamento sobre o projecto de lei, disse: “A Lei da IA ​​​​empurrou o futuro da IA ​​numa direcção centrada no ser humano, numa direcção onde os humanos estão no controlo do tecnologia e onde ela — a tecnologia — nos ajuda a alavancar novas descobertas, o crescimento económico, o progresso social e a desbloquear o potencial humano.”

As grandes empresas tecnológicas têm geralmente apoiado a necessidade de regulamentar a IA enquanto fazem lobby para garantir que quaisquer regras funcionem a seu favor.

O presidente-executivo da OpenAI, Sam Altman, causou um pequeno rebuliço no ano passado quando sugeriu que o fabricante do ChatGPT poderia sair da Europa se não pudesse cumprir a Lei de IA – antes de voltar atrás para dizer que não havia planos de sair.

Tal como muitos regulamentos da UE, a Lei da IA ​​destinava-se inicialmente a funcionar como legislação de segurança do consumidor, adoptando uma “abordagem baseada no risco” para produtos ou serviços que utilizam inteligência artificial.

Quanto mais arriscada for uma aplicação de IA, mais escrutínio ela enfrentará. Sistemas de baixo risco, como sistemas de recomendação de conteúdo ou filtros de spam, enfrentarão apenas regras leves, como revelar que são alimentados por IA. A UE espera que a maioria dos sistemas de IA se enquadre nesta categoria.

As utilizações de alto risco da IA, como em dispositivos médicos ou infraestruturas críticas, como redes de água ou elétricas, enfrentam requisitos mais rigorosos, como a utilização de dados de alta qualidade e o fornecimento de informações claras aos utilizadores.

Algumas utilizações de IA são proibidas porque são consideradas um risco inaceitável, como os sistemas de pontuação social que regem o comportamento das pessoas, alguns tipos de policiamento preditivo e sistemas de reconhecimento de emoções nas escolas e nos locais de trabalho.

Outros usos proibidos incluem a digitalização de rostos em público pela polícia usando sistemas remotos de “identificação biométrica” alimentados por IA, exceto para crimes graves como sequestro ou terrorismo.

Os primeiros rascunhos da lei concentravam-se em sistemas de IA que executavam tarefas estritamente limitadas, como a digitalização de currículos e formulários de emprego. O surpreendente aumento de modelos de IA de uso geral, exemplificado pelo ChatGPT da OpenAI, fez com que os legisladores da UE se esforçassem para acompanhar.

Eles acrescentaram provisões para os chamados modelos generativos de IA, a tecnologia que sustenta os sistemas de chatbot de IA que podem produzir respostas, imagens e muito mais únicas e aparentemente realistas.

Os desenvolvedores de modelos de IA de uso geral – desde startups europeias até OpenAI e Google – terão que fornecer um resumo detalhado do texto, imagens, vídeo e outros dados na Internet que são usados ​​para treinar os sistemas, bem como seguir os direitos autorais da UE. lei.


Explicador das regras de IA da Europa
O conjunto de regras líder mundial visa a tecnologia de rápido desenvolvimento (AP)

Imagens, vídeos ou áudio falsos gerados por IA de pessoas, lugares ou eventos existentes devem ser rotulados como manipulados artificialmente.

Há um escrutínio extra para os maiores e mais poderosos modelos de IA que representam “riscos sistêmicos”, que incluem o GPT4 da OpenAI – seu sistema mais avançado – e o Gemini do Google.

A UE diz estar preocupada que estes poderosos sistemas de IA possam “causar acidentes graves ou serem utilizados indevidamente para ataques cibernéticos de grande alcance”.

Eles também temem que a IA generativa possa espalhar “preconceitos prejudiciais” em muitas aplicações, afetando muitas pessoas.

As empresas que fornecem estes sistemas terão de avaliar e mitigar os riscos; comunicar quaisquer incidentes graves, tais como avarias que causem a morte de alguém ou danos graves à saúde ou ao património; implementar medidas de segurança cibernética; e divulgue quanta energia seus modelos usam.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *