Tecnologia

A Apple planeja verificar as fotos no iCloud para conteúdo de abuso infantil


A Apple planeja verificar as fotos no iCloud para conteúdo de abuso infantil
Apple Inc na segunda-feira disse que Iphone todas as bibliotecas de fotos dos usuários serão verificadas quanto a abuso infantil imagens se estiverem armazenadas no online iCloud serviço.

A divulgação veio em uma série de briefings à mídia em que maçã está tentando dissipar o alarme sobre o anúncio na semana passada de que fará a varredura nos telefones, tablets e computadores dos usuários em busca de milhões de fotos ilegais.


Enquanto o Google, Microsoft e outras plataformas de tecnologia verificam fotos carregadas ou anexos de e-mail em um banco de dados de identificadores fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas e outras câmaras de compensação, os especialistas em segurança acusaram o plano da Apple de ser mais invasivo.

Alguns disseram que esperavam que os governos tentassem forçar a fabricante do iPhone a expandir o sistema para examinar dispositivos para outros materiais.

Em uma postagem em seu site no domingo, a Apple disse que lutaria contra tais tentativas, que podem ocorrer em tribunais secretos.

“Já enfrentamos demandas para construir e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes, e temos recusado firmemente essas demandas”, escreveu a Apple. “Continuaremos a recusá-los no futuro.”

No briefing na segunda-feira, funcionários da Apple disseram que o sistema da empresa, que será lançado neste outono com o lançamento de seu sistema operacional iOS 15, irá verificar os arquivos existentes no dispositivo de um usuário se os usuários têm essas fotos sincronizadas com os servidores de armazenamento da empresa.

Julie Cordua, executiva-chefe da Thorn, um grupo que desenvolveu tecnologia para ajudar as autoridades policiais a detectar o tráfico sexual, disse que cerca de metade das crianças abuso sexual o material é formatado como vídeo.

O sistema da Apple não verifica os vídeos antes de eles serem enviados para a nuvem da empresa, mas a empresa disse que planeja expandir seu sistema de maneiras não especificadas no futuro.

A Apple está sob pressão internacional devido ao baixo número de suas denúncias de material de abuso em comparação com outros fornecedores. Algumas jurisdições europeias estão debatendo a legislação para responsabilizar as plataformas pela disseminação desse material.

Os executivos da empresa argumentaram na segunda-feira que as verificações no dispositivo preservam a privacidade mais do que executar verificações no armazenamento em nuvem da Apple diretamente. Entre outras coisas, a arquitetura do novo sistema não diz nada à Apple sobre o conteúdo do usuário, a menos que um número limite de imagens tenha sido ultrapassado, o que aciona uma revisão humana.

Os executivos reconheceram que um usuário pode ser implicado por agentes mal-intencionados que ganham o controle de um dispositivo e instalam remotamente material conhecido de abuso infantil. Mas eles disseram que esperavam que tais ataques fossem muito raros e que, em qualquer caso, uma revisão procuraria outros sinais de invasão criminosa.

o FacebookTwitterLinkedin




Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *