Últimas

ONU pede moratória no uso de IA que ameaça os direitos humanos


A ONU está pedindo uma moratória sobre o uso de tecnologia de inteligência artificial que representa um sério risco para os direitos humanos, incluindo sistemas de varredura facial que rastreiam pessoas em espaços públicos.

Michelle Bachelet, a Alta Comissária das Nações Unidas para os Direitos Humanos, também disse que os países deveriam proibir expressamente as aplicações de IA que não cumpram as leis internacionais de direitos humanos.

Os aplicativos que deveriam ser proibidos incluíam sistemas de “pontuação social” do governo que julgam as pessoas com base em seu comportamento e certas ferramentas baseadas em IA que categorizam as pessoas em grupos por etnia ou gênero, por exemplo.

As tecnologias baseadas em IA podem ser uma força para o bem, mas também podem “ter efeitos negativos, até mesmo catastróficos, se forem usadas sem levar em conta como afetam os direitos humanos das pessoas”, disse Bachelet em um comunicado.

Seus comentários vieram com um novo relatório da ONU examinando como países e empresas se apressaram em aplicar sistemas de IA que afetam as vidas e meios de subsistência das pessoas sem estabelecer salvaguardas adequadas para prevenir a discriminação e outros danos.

Ela não pediu o banimento total da tecnologia de reconhecimento facial, mas disse que os governos deveriam interromper a varredura das características das pessoas em tempo real até que elas possam mostrar que a tecnologia é precisa, não discrimine e atenda a certos padrões de privacidade e proteção de dados.

Embora os países não tenham sido mencionados pelo nome no relatório, a China em particular está entre os países que implantaram a tecnologia de reconhecimento facial – particularmente como parte da vigilância na região oeste de Xinjiang, onde muitos de sua minoria uigures vivem.

O relatório também expressou preocupação com ferramentas que tentam deduzir os estados emocionais e mentais das pessoas analisando suas expressões faciais ou movimentos corporais, dizendo que essa tecnologia era suscetível a preconceitos, interpretações errôneas e carecia de base científica.

“O uso de sistemas de reconhecimento de emoções pelas autoridades públicas, por exemplo, para selecionar indivíduos para detenções ou prisões policiais ou para avaliar a veracidade das declarações durante os interrogatórios, corre o risco de minar os direitos humanos, tais como os direitos à privacidade, à liberdade e a um justo julgamento ”, disse o relatório.

As recomendações do relatório ecoam o pensamento de muitos líderes políticos nas democracias ocidentais, que esperam explorar o potencial econômico e social da IA ​​ao mesmo tempo em que abordam as crescentes preocupações sobre a confiabilidade das ferramentas que podem rastrear e traçar o perfil de indivíduos e fazer recomendações sobre quem tem acesso a empregos e empréstimos e oportunidades educacionais.


A Microsoft e outros gigantes da tecnologia dos EUA estão apoiando os esforços para definir limites para os usos mais arriscados (Niall Carson / PA)

Os reguladores europeus já tomaram medidas para controlar as aplicações de IA mais arriscadas. Regulamentações propostas delineadas por funcionários da União Europeia neste ano baniriam alguns usos da IA, como a digitalização em tempo real de características faciais, e controlariam rigidamente outros que poderiam ameaçar a segurança ou os direitos das pessoas.

O governo do presidente dos Estados Unidos, Joe Biden, expressou preocupações semelhantes sobre essas solicitações, embora ainda não tenha delineado uma abordagem detalhada para reduzi-las.

Um grupo recém-formado chamado Conselho de Comércio e Tecnologia, liderado conjuntamente por funcionários americanos e europeus, tem procurado colaborar no desenvolvimento de regras compartilhadas para IA e outras políticas de tecnologia.

Esforços para definir limites para os usos mais arriscados têm sido apoiados pela Microsoft e outros gigantes da tecnologia dos EUA, que esperam orientar as regras que afetam a tecnologia que ajudaram a construir.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *