TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
Nenhum resultado
Exibir todos os resultados
TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
Nenhum resultado
Exibir todos os resultados
TEG6
Nenhum resultado
Exibir todos os resultados

Apple adia recursos polêmicos de proteção à criança após protestos de privacidade

por Redação
3 de setembro de 2021
em Notícias
Apple adia recursos polêmicos de proteção à criança após protestos de privacidade
11
Visualizações
CompartilharCompartilharCompartilhar

A Apple está atrasando seus recursos de proteção à criança anunciados no mês passado, incluindo um recurso polêmico que examinaria as fotos dos usuários em busca de material de abuso sexual infantil (CSAM), após intensas críticas de que as mudanças poderiam diminuir a privacidade do usuário. As mudanças foram programadas para serem implementadas ainda este ano.

“No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil”, disse a Apple em um comunicado ao The Verge. “Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.”

Da Apple comunicado de imprensa original sobre as mudanças, que visavam reduzir a proliferação de material de abuso sexual infantil (CSAM), tem uma declaração semelhante no topo da página. Esse lançamento detalhou três mudanças principais em andamento. Uma mudança na Pesquisa e no Siri apontaria para recursos para evitar o CSAM se um usuário pesquisasse informações relacionadas a ele.

As outras duas mudanças foram submetidas a um escrutínio mais significativo. Alguém alertaria os pais quando seus filhos estivessem recebendo ou enviando fotos sexualmente explícitas e borraria essas imagens para as crianças. O outro digitalizaria as imagens armazenadas nas Fotos do iCloud de um usuário para CSAM e as relataria aos moderadores da Apple, que poderiam então encaminhar os relatórios ao Centro Nacional para Crianças Desaparecidas e Exploradas, ou NCMEC.

A Apple detalhou o sistema de digitalização de fotos iCloud detalhadamente para argumentar que ele não enfraqueceu a privacidade do usuário. Resumindo, ele digitalizou fotos armazenadas no iCloud Photos em seu dispositivo iOS e as avaliou junto com um banco de dados de hashes de imagem CSAM conhecidos do NCMEC e outras organizações de segurança infantil.

Ainda assim, muitos especialistas em privacidade e segurança criticaram fortemente a empresa pelo novo sistema, argumentando que ele poderia ter criado um sistema de vigilância no dispositivo e que violava a confiança que os usuários colocaram na Apple para proteger a privacidade no dispositivo.

A Electronic Frontier Foundation disse em 5 de agosto demonstração que o novo sistema, por mais bem-intencionado que seja, “quebraria as principais promessas da criptografia do próprio mensageiro e abriria a porta para abusos mais amplos”.

“A Apple está comprometendo o telefone que você e eu temos e operamos”, disse Ben Thompson em Stratechery em sua própria crítica, “sem que nenhum de nós tenha uma palavra a dizer sobre o assunto”.

Em desenvolvimento…

Tags: adiaapósApplecriançapolêmicosprivacidadeProteçãoprotestosrecursos

Gostaríamos de lhe enviar notificações com novidades, você pode cancelar a qualquer momento.

Você está inscrito.
  • Contato
  • Início
  • Política de privacidade
  • Sobre

© 2022 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Nenhum resultado
Exibir todos os resultados
  • Início
  • Notícias
  • Review
  • Como fazer

© 2022 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies.