TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
Nenhum resultado
Exibir todos os resultados
TEG6
  • Início
  • Notícias
  • Review
  • Como fazer
Nenhum resultado
Exibir todos os resultados
TEG6
Nenhum resultado
Exibir todos os resultados

Conselho de Supervisão da Meta quer que o Facebook seja mais transparente sobre contas VIP

por Redação
6 de dezembro de 2022
em Notícias
Conselho de Supervisão da Meta quer que o Facebook seja mais transparente sobre contas VIP
6
Visualizações
CompartilharCompartilharCompartilhar

Há um ano, o The Wall Street Journal revelou que o Facebook operava um sistema de moderação de conteúdo em duas camadas. Os usuários normais estavam sujeitos às regras declaradas da plataforma, enquanto os usuários VIP eram secretamente marcados como especiais em um programa chamado internamente de “verificação cruzada”.

Essa lista incluía todos, desde o astro do futebol brasileiro Neymar e o ex-presidente Donald Trump até a comentarista conservadora Candace Owens e o fundador da empresa, Mark Zuckerberg. De acordo com o WSJ, esse sistema foi projetado para minimizar os casos em que o Facebook pode moderar o conteúdo de um VIP no curso normal de moderação e iniciar uma tempestade de má imprensa no processo.

“Se os sistemas do Facebook concluírem que uma dessas contas pode ter quebrado suas regras, eles não removem o conteúdo – pelo menos não imediatamente, indicam os documentos”, relatou o WSJ. “Eles encaminham a reclamação para um sistema separado, administrado por funcionários mais bem treinados e em tempo integral, para camadas adicionais de revisão.”

A verificação cruzada veio à tona em meados de setembro do ano passado e, no final do mês, a empresa estava pedindo ao Conselho de Supervisão, o conselho semi-independente de formulação de políticas da Meta, que revisasse o sistema e sugerisse maneiras de corrigi-lo. “Especificamente, pediremos ao conselho orientação sobre os critérios que usamos para determinar o que é priorizado para uma revisão secundária por meio de verificação cruzada, bem como como gerenciamos o programa”, escreveu o vice-presidente de Assuntos Globais da Meta, Nick Clegg.

O Conselho de Supervisão agora está de volta com suas recomendações, pedindo “melhorias significativas” para o programa de verificação cruzada.

“Durante anos, a verificação cruzada permitiu que o conteúdo de um grupo seleto de políticos, parceiros de negócios, celebridades e outros permanecesse no Facebook e no Instagram por vários dias, quando, de outra forma, teria sido removido rapidamente”, escreveu o grupo em uma postagem no blog, observando que algum conteúdo que caiu na verificação cruzada permaneceu ativo por 7 meses antes de a empresa tomar uma decisão sobre removê-lo.

O Conselho de Supervisão ofereceu 32 mudanças recomendadas para esse processo, incluindo algumas etapas que tornariam um programa anteriormente secreto muito mais transparente. O conselho pediu à empresa que publique “critérios claros” descrevendo quais contas são elegíveis para o processo de revisão extra de verificação cruzada, para marcar visivelmente as contas que estão no programa e permitir que pessoas que possam atender aos requisitos se candidatem ao status de conta especial .

O conselho também solicitou que a Meta priorize “usuários com probabilidade de produzir expressões importantes para os direitos humanos”, como jornalistas e grupos de direitos civis no sistema de verificação cruzada, em vez de fazer essas ligações com base em seus interesses comerciais. “Embora o número de seguidores possa indicar interesse público na expressão de um usuário, a contagem de celebridades ou seguidores de um usuário não deve ser o único critério para receber proteção adicional”, escreveu o conselho. “Se os usuários incluídos devido à sua importância comercial frequentemente publicam conteúdo infrator, eles não devem mais se beneficiar de proteção especial.”

O conjunto completo de recomendações, publicado no blog do Oversight Board, pede à Meta que realinhe drasticamente suas prioridades de moderação de conteúdo para usuários de alto perfil. Ainda não se sabe quanto disso a empresa realmente implementará, mas todo esse processo certamente parece uma máquina bem oleada em comparação com a definição de política que está acontecendo no Twitter atualmente.

Há um ano, o The Wall Street Journal revelou que o Facebook operava um sistema de moderação de conteúdo em duas camadas. Os usuários normais estavam sujeitos às regras declaradas da plataforma, enquanto os usuários VIP eram secretamente marcados como especiais em um programa chamado internamente de “verificação cruzada”.

Essa lista incluía todos, desde o astro do futebol brasileiro Neymar e o ex-presidente Donald Trump até a comentarista conservadora Candace Owens e o fundador da empresa, Mark Zuckerberg. De acordo com o WSJ, esse sistema foi projetado para minimizar os casos em que o Facebook pode moderar o conteúdo de um VIP no curso normal de moderação e iniciar uma tempestade de má imprensa no processo.

“Se os sistemas do Facebook concluírem que uma dessas contas pode ter quebrado suas regras, eles não removem o conteúdo – pelo menos não imediatamente, indicam os documentos”, relatou o WSJ. “Eles encaminham a reclamação para um sistema separado, administrado por funcionários mais bem treinados e em tempo integral, para camadas adicionais de revisão.”

A verificação cruzada veio à tona em meados de setembro do ano passado e, no final do mês, a empresa estava pedindo ao Conselho de Supervisão, o conselho semi-independente de formulação de políticas da Meta, que revisasse o sistema e sugerisse maneiras de corrigi-lo. “Especificamente, pediremos ao conselho orientação sobre os critérios que usamos para determinar o que é priorizado para uma revisão secundária por meio de verificação cruzada, bem como como gerenciamos o programa”, escreveu o vice-presidente de Assuntos Globais da Meta, Nick Clegg.

O Conselho de Supervisão agora está de volta com suas recomendações, pedindo “melhorias significativas” para o programa de verificação cruzada.

“Durante anos, a verificação cruzada permitiu que o conteúdo de um grupo seleto de políticos, parceiros de negócios, celebridades e outros permanecesse no Facebook e no Instagram por vários dias, quando, de outra forma, teria sido removido rapidamente”, escreveu o grupo em uma postagem no blog, observando que algum conteúdo que caiu na verificação cruzada permaneceu ativo por 7 meses antes de a empresa tomar uma decisão sobre removê-lo.

O Conselho de Supervisão ofereceu 32 mudanças recomendadas para esse processo, incluindo algumas etapas que tornariam um programa anteriormente secreto muito mais transparente. O conselho pediu à empresa que publique “critérios claros” descrevendo quais contas são elegíveis para o processo de revisão extra de verificação cruzada, para marcar visivelmente as contas que estão no programa e permitir que pessoas que possam atender aos requisitos se candidatem ao status de conta especial .

O conselho também solicitou que a Meta priorize “usuários com probabilidade de produzir expressões importantes para os direitos humanos”, como jornalistas e grupos de direitos civis no sistema de verificação cruzada, em vez de fazer essas ligações com base em seus interesses comerciais. “Embora o número de seguidores possa indicar interesse público na expressão de um usuário, a contagem de celebridades ou seguidores de um usuário não deve ser o único critério para receber proteção adicional”, escreveu o conselho. “Se os usuários incluídos devido à sua importância comercial frequentemente publicam conteúdo infrator, eles não devem mais se beneficiar de proteção especial.”

O conjunto completo de recomendações, publicado no blog do Oversight Board, pede à Meta que realinhe drasticamente suas prioridades de moderação de conteúdo para usuários de alto perfil. Ainda não se sabe quanto disso a empresa realmente implementará, mas todo esse processo certamente parece uma máquina bem oleada em comparação com a definição de política que está acontecendo no Twitter atualmente.

Kit 2 Microfones Profissional de Lapela DPJ Cristal para iPhone, Android e PC Kit 2 Microfones Profissional de Lapela DPJ Cristal para iPhone, Android e PC Kit 2 Microfones Profissional de Lapela DPJ Cristal para iPhone, Android e PC

Há um ano, o The Wall Street Journal revelou que o Facebook operava um sistema de moderação de conteúdo em duas camadas. Os usuários normais estavam sujeitos às regras declaradas da plataforma, enquanto os usuários VIP eram secretamente marcados como especiais em um programa chamado internamente de “verificação cruzada”.

Essa lista incluía todos, desde o astro do futebol brasileiro Neymar e o ex-presidente Donald Trump até a comentarista conservadora Candace Owens e o fundador da empresa, Mark Zuckerberg. De acordo com o WSJ, esse sistema foi projetado para minimizar os casos em que o Facebook pode moderar o conteúdo de um VIP no curso normal de moderação e iniciar uma tempestade de má imprensa no processo.

“Se os sistemas do Facebook concluírem que uma dessas contas pode ter quebrado suas regras, eles não removem o conteúdo – pelo menos não imediatamente, indicam os documentos”, relatou o WSJ. “Eles encaminham a reclamação para um sistema separado, administrado por funcionários mais bem treinados e em tempo integral, para camadas adicionais de revisão.”

A verificação cruzada veio à tona em meados de setembro do ano passado e, no final do mês, a empresa estava pedindo ao Conselho de Supervisão, o conselho semi-independente de formulação de políticas da Meta, que revisasse o sistema e sugerisse maneiras de corrigi-lo. “Especificamente, pediremos ao conselho orientação sobre os critérios que usamos para determinar o que é priorizado para uma revisão secundária por meio de verificação cruzada, bem como como gerenciamos o programa”, escreveu o vice-presidente de Assuntos Globais da Meta, Nick Clegg.

O Conselho de Supervisão agora está de volta com suas recomendações, pedindo “melhorias significativas” para o programa de verificação cruzada.

“Durante anos, a verificação cruzada permitiu que o conteúdo de um grupo seleto de políticos, parceiros de negócios, celebridades e outros permanecesse no Facebook e no Instagram por vários dias, quando, de outra forma, teria sido removido rapidamente”, escreveu o grupo em uma postagem no blog, observando que algum conteúdo que caiu na verificação cruzada permaneceu ativo por 7 meses antes de a empresa tomar uma decisão sobre removê-lo.

O Conselho de Supervisão ofereceu 32 mudanças recomendadas para esse processo, incluindo algumas etapas que tornariam um programa anteriormente secreto muito mais transparente. O conselho pediu à empresa que publique “critérios claros” descrevendo quais contas são elegíveis para o processo de revisão extra de verificação cruzada, para marcar visivelmente as contas que estão no programa e permitir que pessoas que possam atender aos requisitos se candidatem ao status de conta especial .

O conselho também solicitou que a Meta priorize “usuários com probabilidade de produzir expressões importantes para os direitos humanos”, como jornalistas e grupos de direitos civis no sistema de verificação cruzada, em vez de fazer essas ligações com base em seus interesses comerciais. “Embora o número de seguidores possa indicar interesse público na expressão de um usuário, a contagem de celebridades ou seguidores de um usuário não deve ser o único critério para receber proteção adicional”, escreveu o conselho. “Se os usuários incluídos devido à sua importância comercial frequentemente publicam conteúdo infrator, eles não devem mais se beneficiar de proteção especial.”

O conjunto completo de recomendações, publicado no blog do Oversight Board, pede à Meta que realinhe drasticamente suas prioridades de moderação de conteúdo para usuários de alto perfil. Ainda não se sabe quanto disso a empresa realmente implementará, mas todo esse processo certamente parece uma máquina bem oleada em comparação com a definição de política que está acontecendo no Twitter atualmente.

Há um ano, o The Wall Street Journal revelou que o Facebook operava um sistema de moderação de conteúdo em duas camadas. Os usuários normais estavam sujeitos às regras declaradas da plataforma, enquanto os usuários VIP eram secretamente marcados como especiais em um programa chamado internamente de “verificação cruzada”.

Essa lista incluía todos, desde o astro do futebol brasileiro Neymar e o ex-presidente Donald Trump até a comentarista conservadora Candace Owens e o fundador da empresa, Mark Zuckerberg. De acordo com o WSJ, esse sistema foi projetado para minimizar os casos em que o Facebook pode moderar o conteúdo de um VIP no curso normal de moderação e iniciar uma tempestade de má imprensa no processo.

“Se os sistemas do Facebook concluírem que uma dessas contas pode ter quebrado suas regras, eles não removem o conteúdo – pelo menos não imediatamente, indicam os documentos”, relatou o WSJ. “Eles encaminham a reclamação para um sistema separado, administrado por funcionários mais bem treinados e em tempo integral, para camadas adicionais de revisão.”

A verificação cruzada veio à tona em meados de setembro do ano passado e, no final do mês, a empresa estava pedindo ao Conselho de Supervisão, o conselho semi-independente de formulação de políticas da Meta, que revisasse o sistema e sugerisse maneiras de corrigi-lo. “Especificamente, pediremos ao conselho orientação sobre os critérios que usamos para determinar o que é priorizado para uma revisão secundária por meio de verificação cruzada, bem como como gerenciamos o programa”, escreveu o vice-presidente de Assuntos Globais da Meta, Nick Clegg.

O Conselho de Supervisão agora está de volta com suas recomendações, pedindo “melhorias significativas” para o programa de verificação cruzada.

“Durante anos, a verificação cruzada permitiu que o conteúdo de um grupo seleto de políticos, parceiros de negócios, celebridades e outros permanecesse no Facebook e no Instagram por vários dias, quando, de outra forma, teria sido removido rapidamente”, escreveu o grupo em uma postagem no blog, observando que algum conteúdo que caiu na verificação cruzada permaneceu ativo por 7 meses antes de a empresa tomar uma decisão sobre removê-lo.

O Conselho de Supervisão ofereceu 32 mudanças recomendadas para esse processo, incluindo algumas etapas que tornariam um programa anteriormente secreto muito mais transparente. O conselho pediu à empresa que publique “critérios claros” descrevendo quais contas são elegíveis para o processo de revisão extra de verificação cruzada, para marcar visivelmente as contas que estão no programa e permitir que pessoas que possam atender aos requisitos se candidatem ao status de conta especial .

O conselho também solicitou que a Meta priorize “usuários com probabilidade de produzir expressões importantes para os direitos humanos”, como jornalistas e grupos de direitos civis no sistema de verificação cruzada, em vez de fazer essas ligações com base em seus interesses comerciais. “Embora o número de seguidores possa indicar interesse público na expressão de um usuário, a contagem de celebridades ou seguidores de um usuário não deve ser o único critério para receber proteção adicional”, escreveu o conselho. “Se os usuários incluídos devido à sua importância comercial frequentemente publicam conteúdo infrator, eles não devem mais se beneficiar de proteção especial.”

O conjunto completo de recomendações, publicado no blog do Oversight Board, pede à Meta que realinhe drasticamente suas prioridades de moderação de conteúdo para usuários de alto perfil. Ainda não se sabe quanto disso a empresa realmente implementará, mas todo esse processo certamente parece uma máquina bem oleada em comparação com a definição de política que está acontecendo no Twitter atualmente.

Tags: conselhocontasFacebookmaismetaquersejasobreSupervisãotransparenteVIP

Gostaríamos de lhe enviar notificações com novidades, você pode cancelar a qualquer momento.

Você está inscrito.
  • Contato
  • Início
  • Política de privacidade
  • Sobre

© 2022 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Nenhum resultado
Exibir todos os resultados
  • Início
  • Notícias
  • Review
  • Como fazer

© 2022 TEG6 - Tecnologia mobile de ponta a ponta TEG6.

Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies.