TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
Nenhum resultado
Exibir todos os resultados
TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
Nenhum resultado
Exibir todos os resultados
TEG6
Nenhum resultado
Exibir todos os resultados

Apple atrasa lançamento de polêmico recurso de segurança de digitalização de fotos

por Redação
3 de setembro de 2021
em Notícias
C. Scott Brown
12
Visualizações
CompartilharCompartilharCompartilhar

Eric Zeman / Autoridade Android

TL; DR

  • O recurso de digitalização de fotos do Apple CSAM, anunciado há um mês, será adiado.
  • A Apple diz que precisa “levar mais tempo nos próximos meses” para polir o recurso.
  • A política veria as fotos do usuário “digitalizadas” por algoritmos em busca de evidências de abuso infantil.

No início de agosto, a Apple anunciou uma nova política muito polêmica. Em um esforço para conter a exploração infantil, a empresa disse que começaria a digitalizar com segurança todas as fotos que as pessoas enviarem para o iCloud. Embora essa varredura seja feita por algoritmo, qualquer sinalizador do algoritmo teria um acompanhamento de um humano.

Obviamente, o Material de Abuso Sexual Infantil (CSAM) é um grande problema que quase todo mundo quer combater. No entanto, a política de CSAM da Apple deixou muitas pessoas desconfortáveis ​​devido ao quão invasivo de privacidade parece. Agora, a empresa está atrasando o lançamento do recurso (via 9to5Mac)

Veja também: Os melhores navegadores de privacidade para Android

A Apple prometeu que seu algoritmo para escanear o material do usuário era incrivelmente preciso, alegando que há “uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta”. Essa promessa não parou o desconforto, no entanto. A declaração da Apple sobre o atraso deixa isso bem claro:

No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.

A declaração sugere que a Apple não lançará isso tão cedo. “Nos próximos meses” pode significar o final deste ano ou possivelmente em 2022. Pode até ser adiado indefinidamente.

Eric Zeman / Autoridade Android

TL; DR

  • O recurso de digitalização de fotos do Apple CSAM, anunciado há um mês, será adiado.
  • A Apple diz que precisa “levar mais tempo nos próximos meses” para polir o recurso.
  • A política veria as fotos do usuário “digitalizadas” por algoritmos em busca de evidências de abuso infantil.

No início de agosto, a Apple anunciou uma nova política muito polêmica. Em um esforço para conter a exploração infantil, a empresa disse que começaria a digitalizar com segurança todas as fotos que as pessoas enviarem para o iCloud. Embora essa varredura seja feita por algoritmo, qualquer sinalizador do algoritmo teria um acompanhamento de um humano.

Obviamente, o Material de Abuso Sexual Infantil (CSAM) é um grande problema que quase todo mundo quer combater. No entanto, a política de CSAM da Apple deixou muitas pessoas desconfortáveis ​​devido ao quão invasivo de privacidade parece. Agora, a empresa está atrasando o lançamento do recurso (via 9to5Mac)

Veja também: Os melhores navegadores de privacidade para Android

A Apple prometeu que seu algoritmo para escanear o material do usuário era incrivelmente preciso, alegando que há “uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta”. Essa promessa não parou o desconforto, no entanto. A declaração da Apple sobre o atraso deixa isso bem claro:

No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.

A declaração sugere que a Apple não lançará isso tão cedo. “Nos próximos meses” pode significar o final deste ano ou possivelmente em 2022. Pode até ser adiado indefinidamente.

Kit 2 Microfones Profissional de Lapela DPJ Cristal para iPhone, Android e PC Kit 2 Microfones Profissional de Lapela DPJ Cristal para iPhone, Android e PC Kit 2 Microfones Profissional de Lapela DPJ Cristal para iPhone, Android e PC

Eric Zeman / Autoridade Android

TL; DR

  • O recurso de digitalização de fotos do Apple CSAM, anunciado há um mês, será adiado.
  • A Apple diz que precisa “levar mais tempo nos próximos meses” para polir o recurso.
  • A política veria as fotos do usuário “digitalizadas” por algoritmos em busca de evidências de abuso infantil.

No início de agosto, a Apple anunciou uma nova política muito polêmica. Em um esforço para conter a exploração infantil, a empresa disse que começaria a digitalizar com segurança todas as fotos que as pessoas enviarem para o iCloud. Embora essa varredura seja feita por algoritmo, qualquer sinalizador do algoritmo teria um acompanhamento de um humano.

Obviamente, o Material de Abuso Sexual Infantil (CSAM) é um grande problema que quase todo mundo quer combater. No entanto, a política de CSAM da Apple deixou muitas pessoas desconfortáveis ​​devido ao quão invasivo de privacidade parece. Agora, a empresa está atrasando o lançamento do recurso (via 9to5Mac)

Veja também: Os melhores navegadores de privacidade para Android

A Apple prometeu que seu algoritmo para escanear o material do usuário era incrivelmente preciso, alegando que há “uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta”. Essa promessa não parou o desconforto, no entanto. A declaração da Apple sobre o atraso deixa isso bem claro:

No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.

A declaração sugere que a Apple não lançará isso tão cedo. “Nos próximos meses” pode significar o final deste ano ou possivelmente em 2022. Pode até ser adiado indefinidamente.

Eric Zeman / Autoridade Android

TL; DR

  • O recurso de digitalização de fotos do Apple CSAM, anunciado há um mês, será adiado.
  • A Apple diz que precisa “levar mais tempo nos próximos meses” para polir o recurso.
  • A política veria as fotos do usuário “digitalizadas” por algoritmos em busca de evidências de abuso infantil.

No início de agosto, a Apple anunciou uma nova política muito polêmica. Em um esforço para conter a exploração infantil, a empresa disse que começaria a digitalizar com segurança todas as fotos que as pessoas enviarem para o iCloud. Embora essa varredura seja feita por algoritmo, qualquer sinalizador do algoritmo teria um acompanhamento de um humano.

Obviamente, o Material de Abuso Sexual Infantil (CSAM) é um grande problema que quase todo mundo quer combater. No entanto, a política de CSAM da Apple deixou muitas pessoas desconfortáveis ​​devido ao quão invasivo de privacidade parece. Agora, a empresa está atrasando o lançamento do recurso (via 9to5Mac)

Veja também: Os melhores navegadores de privacidade para Android

A Apple prometeu que seu algoritmo para escanear o material do usuário era incrivelmente preciso, alegando que há “uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta”. Essa promessa não parou o desconforto, no entanto. A declaração da Apple sobre o atraso deixa isso bem claro:

No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.

A declaração sugere que a Apple não lançará isso tão cedo. “Nos próximos meses” pode significar o final deste ano ou possivelmente em 2022. Pode até ser adiado indefinidamente.

Tags: Appleatrasadigitalizaçãofotoslançamentopolêmicorecursosegurança

Gostaríamos de lhe enviar notificações com novidades, você pode cancelar a qualquer momento.

Você está inscrito.
  • Contato
  • Início
  • Política de privacidade
  • Sobre

© 2022 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Nenhum resultado
Exibir todos os resultados
  • Início
  • Notícias
  • Review
  • Como fazer

© 2022 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies.