O Conselho de Supervisão da Meta divulgou um relatório detalhado sobre o controverso sistema de verificação cruzada do Facebook e do Instagram, pedindo à Meta que torne o programa “radicalmente” mais transparente e reforce seus recursos.
O Conselho de Supervisão semi-independente citou “várias deficiências” na verificação cruzada, que fornece uma fila de moderação especial para figuras públicas de alto perfil, incluindo o ex-presidente Donald Trump antes de sua suspensão do Facebook. Ele destacou uma falha em deixar claro quando as contas são protegidas por status especial de verificação cruzada, bem como casos em que o material que quebra as regras – particularmente um caso de pornografia não consensual – foi deixado por um período prolongado de tempo. E criticou o Meta por não acompanhar as estatísticas de moderação que podem avaliar a precisão dos resultados do programa.
“Embora a Meta tenha dito ao conselho que a verificação cruzada visa promover os compromissos da Meta com os direitos humanos, descobrimos que o programa parece mais diretamente estruturado para satisfazer as preocupações dos negócios”, diz o relatório. “O conselho entende que a Meta é um negócio, mas ao fornecer proteção extra a certos usuários selecionados em grande parte de acordo com os interesses comerciais, a verificação cruzada permite que o conteúdo que de outra forma seria removido rapidamente permaneça ativo por um período mais longo, potencialmente causando danos.”
“Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
O relatório surge mais de um ano depois Jornal de Wall Street revelou detalhes sobre a verificação cruzada publicamente. Após suas revelações, a Meta pediu ao Conselho de Supervisão para avaliar o programa, mas o conselho reclamou que a Meta não forneceu informações importantes sobre ele, como detalhes sobre seu papel na moderação das postagens de Trump. O anúncio de hoje aparentemente segue meses de idas e vindas entre a Meta e o Conselho de Supervisão, incluindo a revisão de “milhares” de páginas de documentos internos, quatro briefings da empresa e um pedido de respostas para 74 perguntas. O documento resultante inclui diagramas, estatísticas e declarações da Meta que ajudam a esclarecer como ela organizou um programa de revisão em várias camadas.
“É uma pequena parte do que a Meta faz, mas acho que gastando tanto tempo e analisando isso [much] detalhe, expôs algo que é um pouco mais sistêmico dentro da empresa”, disse Alan Rusbridger, membro do Conselho de Supervisão The Verge. “Acredito sinceramente que há muitas pessoas na Meta que acreditam nos valores da liberdade de expressão e nos valores de proteção do jornalismo e proteção das pessoas que trabalham na sociedade civil. Mas o programa que eles criaram não estava fazendo essas coisas. Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
A verificação cruzada foi projetada para evitar remoções inapropriadas de postagens de um subconjunto de usuários, enviando essas decisões por meio de um conjunto de análises humanas, em vez do processo normal de moderação pesada de IA. Seus membros (que, como Rusbringer observa, não são informados de que estão protegidos) incluem jornalistas que reportam de zonas de conflito e líderes cívicos cujas declarações são particularmente interessantes. Também abrange “parceiros de negócios” que incluem editores, artistas, empresas e organizações de caridade.
De acordo com as declarações da Meta citadas no relatório, o programa favorece a subexecução das regras da empresa para evitar uma “percepção de censura” ou uma experiência ruim para pessoas que trazem dinheiro e usuários significativos para o Facebook e o Instagram. Meta diz que, em média, pode levar mais de cinco dias para fazer uma chamada em um conteúdo. Um backlog de moderação às vezes atrasa ainda mais as decisões – no máximo, um conteúdo permaneceu na fila por mais de sete meses.
O Conselho de Supervisão tem frequentemente criticado a Meta por remover postagens com excesso de zelo, principalmente aquelas com expressão política ou artística. Mas, neste caso, expressou preocupação de que a Meta estivesse permitindo que suas parcerias comerciais ofuscassem danos reais. Um acúmulo de checagem cruzada, por exemplo, atrasou uma decisão quando o jogador de futebol brasileiro Neymar postou fotos nuas de uma mulher que o acusou de estupro – e depois da postagem, que foi uma clara violação das regras do Meta, Neymar não sofreu o típico pena de ter sua conta deletada. O conselho observa que Neymar mais tarde assinou um contrato de streaming exclusivo com a Meta.
Por outro lado, parte do problema é que os usuários comuns não obtenha a mesma moderação prática, graças à escala massiva do Facebook e do Instagram. A Meta disse ao Conselho de Supervisão que, em outubro de 2021, estava realizando 100 milhões de ações de aplicação de conteúdo todos os dias. Muitas dessas decisões são automatizadas ou submetidas a uma revisão humana muito superficial, já que é um grande volume que seria difícil ou impossível de coordenar em um sistema de moderação puramente humano. Mas o conselho diz que não está claro se o Meta rastreia ou tenta analisar a precisão do sistema de verificação cruzada em comparação com a moderação de conteúdo comum. Se isso acontecesse, os resultados poderiam indicar que muitos conteúdos de usuários comuns provavelmente estavam sendo sinalizados incorretamente como violando as regras, ou que a Meta estava subestimando suas políticas para usuários de alto perfil.
“Minha esperança é que a Meta tenha coragem.”
O conselho fez 32 recomendações à Meta. (Como de costume, a Meta deve responder às recomendações dentro de 60 dias, mas não é obrigada a adotá-las.) As recomendações incluem ocultar postagens marcadas como violações de “alta gravidade” enquanto uma revisão está em andamento, mesmo quando postadas por empresas. parceiros. A diretoria pede à Meta que priorize a melhoria da moderação de conteúdo para “expressão que é importante para os direitos humanos”, adotando uma fila especial para esse conteúdo separada dos parceiros de negócios da Meta. Ele pede à Meta que estabeleça “critérios públicos claros” para quem está incluído nas listas de verificação cruzada – e, em alguns casos, como atores estatais e parceiros de negócios, para marcar publicamente esse status.
Algumas dessas recomendações, como a marcação pública de contas, são decisões políticas que provavelmente não exigiriam recursos extras significativos. Mas Rusbridger reconhece que outros – como eliminar o atraso para checagem cruzada – exigiriam uma expansão “substancial” da força de moderação da Meta. E o relatório chega em meio a um período de austeridade para a Meta; no mês passado, a empresa demitiu cerca de 13% de sua força de trabalho.
Rusbridger expressa esperança de que o Meta ainda priorize a moderação de conteúdo ao lado de programas técnicos “mais difíceis”, mesmo que aperte o cinto. “Minha esperança é que a Meta tenha coragem”, diz ele. “Por mais tentador que seja cortar as áreas ‘suaves’, acho que, a longo prazo, eles devem perceber que não é uma coisa muito sábia a se fazer.”
O Conselho de Supervisão da Meta divulgou um relatório detalhado sobre o controverso sistema de verificação cruzada do Facebook e do Instagram, pedindo à Meta que torne o programa “radicalmente” mais transparente e reforce seus recursos.
O Conselho de Supervisão semi-independente citou “várias deficiências” na verificação cruzada, que fornece uma fila de moderação especial para figuras públicas de alto perfil, incluindo o ex-presidente Donald Trump antes de sua suspensão do Facebook. Ele destacou uma falha em deixar claro quando as contas são protegidas por status especial de verificação cruzada, bem como casos em que o material que quebra as regras – particularmente um caso de pornografia não consensual – foi deixado por um período prolongado de tempo. E criticou o Meta por não acompanhar as estatísticas de moderação que podem avaliar a precisão dos resultados do programa.
“Embora a Meta tenha dito ao conselho que a verificação cruzada visa promover os compromissos da Meta com os direitos humanos, descobrimos que o programa parece mais diretamente estruturado para satisfazer as preocupações dos negócios”, diz o relatório. “O conselho entende que a Meta é um negócio, mas ao fornecer proteção extra a certos usuários selecionados em grande parte de acordo com os interesses comerciais, a verificação cruzada permite que o conteúdo que de outra forma seria removido rapidamente permaneça ativo por um período mais longo, potencialmente causando danos.”
“Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
O relatório surge mais de um ano depois Jornal de Wall Street revelou detalhes sobre a verificação cruzada publicamente. Após suas revelações, a Meta pediu ao Conselho de Supervisão para avaliar o programa, mas o conselho reclamou que a Meta não forneceu informações importantes sobre ele, como detalhes sobre seu papel na moderação das postagens de Trump. O anúncio de hoje aparentemente segue meses de idas e vindas entre a Meta e o Conselho de Supervisão, incluindo a revisão de “milhares” de páginas de documentos internos, quatro briefings da empresa e um pedido de respostas para 74 perguntas. O documento resultante inclui diagramas, estatísticas e declarações da Meta que ajudam a esclarecer como ela organizou um programa de revisão em várias camadas.
“É uma pequena parte do que a Meta faz, mas acho que gastando tanto tempo e analisando isso [much] detalhe, expôs algo que é um pouco mais sistêmico dentro da empresa”, disse Alan Rusbridger, membro do Conselho de Supervisão The Verge. “Acredito sinceramente que há muitas pessoas na Meta que acreditam nos valores da liberdade de expressão e nos valores de proteção do jornalismo e proteção das pessoas que trabalham na sociedade civil. Mas o programa que eles criaram não estava fazendo essas coisas. Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
A verificação cruzada foi projetada para evitar remoções inapropriadas de postagens de um subconjunto de usuários, enviando essas decisões por meio de um conjunto de análises humanas, em vez do processo normal de moderação pesada de IA. Seus membros (que, como Rusbringer observa, não são informados de que estão protegidos) incluem jornalistas que reportam de zonas de conflito e líderes cívicos cujas declarações são particularmente interessantes. Também abrange “parceiros de negócios” que incluem editores, artistas, empresas e organizações de caridade.
De acordo com as declarações da Meta citadas no relatório, o programa favorece a subexecução das regras da empresa para evitar uma “percepção de censura” ou uma experiência ruim para pessoas que trazem dinheiro e usuários significativos para o Facebook e o Instagram. Meta diz que, em média, pode levar mais de cinco dias para fazer uma chamada em um conteúdo. Um backlog de moderação às vezes atrasa ainda mais as decisões – no máximo, um conteúdo permaneceu na fila por mais de sete meses.
O Conselho de Supervisão tem frequentemente criticado a Meta por remover postagens com excesso de zelo, principalmente aquelas com expressão política ou artística. Mas, neste caso, expressou preocupação de que a Meta estivesse permitindo que suas parcerias comerciais ofuscassem danos reais. Um acúmulo de checagem cruzada, por exemplo, atrasou uma decisão quando o jogador de futebol brasileiro Neymar postou fotos nuas de uma mulher que o acusou de estupro – e depois da postagem, que foi uma clara violação das regras do Meta, Neymar não sofreu o típico pena de ter sua conta deletada. O conselho observa que Neymar mais tarde assinou um contrato de streaming exclusivo com a Meta.
Por outro lado, parte do problema é que os usuários comuns não obtenha a mesma moderação prática, graças à escala massiva do Facebook e do Instagram. A Meta disse ao Conselho de Supervisão que, em outubro de 2021, estava realizando 100 milhões de ações de aplicação de conteúdo todos os dias. Muitas dessas decisões são automatizadas ou submetidas a uma revisão humana muito superficial, já que é um grande volume que seria difícil ou impossível de coordenar em um sistema de moderação puramente humano. Mas o conselho diz que não está claro se o Meta rastreia ou tenta analisar a precisão do sistema de verificação cruzada em comparação com a moderação de conteúdo comum. Se isso acontecesse, os resultados poderiam indicar que muitos conteúdos de usuários comuns provavelmente estavam sendo sinalizados incorretamente como violando as regras, ou que a Meta estava subestimando suas políticas para usuários de alto perfil.
“Minha esperança é que a Meta tenha coragem.”
O conselho fez 32 recomendações à Meta. (Como de costume, a Meta deve responder às recomendações dentro de 60 dias, mas não é obrigada a adotá-las.) As recomendações incluem ocultar postagens marcadas como violações de “alta gravidade” enquanto uma revisão está em andamento, mesmo quando postadas por empresas. parceiros. A diretoria pede à Meta que priorize a melhoria da moderação de conteúdo para “expressão que é importante para os direitos humanos”, adotando uma fila especial para esse conteúdo separada dos parceiros de negócios da Meta. Ele pede à Meta que estabeleça “critérios públicos claros” para quem está incluído nas listas de verificação cruzada – e, em alguns casos, como atores estatais e parceiros de negócios, para marcar publicamente esse status.
Algumas dessas recomendações, como a marcação pública de contas, são decisões políticas que provavelmente não exigiriam recursos extras significativos. Mas Rusbridger reconhece que outros – como eliminar o atraso para checagem cruzada – exigiriam uma expansão “substancial” da força de moderação da Meta. E o relatório chega em meio a um período de austeridade para a Meta; no mês passado, a empresa demitiu cerca de 13% de sua força de trabalho.
Rusbridger expressa esperança de que o Meta ainda priorize a moderação de conteúdo ao lado de programas técnicos “mais difíceis”, mesmo que aperte o cinto. “Minha esperança é que a Meta tenha coragem”, diz ele. “Por mais tentador que seja cortar as áreas ‘suaves’, acho que, a longo prazo, eles devem perceber que não é uma coisa muito sábia a se fazer.”
O Conselho de Supervisão da Meta divulgou um relatório detalhado sobre o controverso sistema de verificação cruzada do Facebook e do Instagram, pedindo à Meta que torne o programa “radicalmente” mais transparente e reforce seus recursos.
O Conselho de Supervisão semi-independente citou “várias deficiências” na verificação cruzada, que fornece uma fila de moderação especial para figuras públicas de alto perfil, incluindo o ex-presidente Donald Trump antes de sua suspensão do Facebook. Ele destacou uma falha em deixar claro quando as contas são protegidas por status especial de verificação cruzada, bem como casos em que o material que quebra as regras – particularmente um caso de pornografia não consensual – foi deixado por um período prolongado de tempo. E criticou o Meta por não acompanhar as estatísticas de moderação que podem avaliar a precisão dos resultados do programa.
“Embora a Meta tenha dito ao conselho que a verificação cruzada visa promover os compromissos da Meta com os direitos humanos, descobrimos que o programa parece mais diretamente estruturado para satisfazer as preocupações dos negócios”, diz o relatório. “O conselho entende que a Meta é um negócio, mas ao fornecer proteção extra a certos usuários selecionados em grande parte de acordo com os interesses comerciais, a verificação cruzada permite que o conteúdo que de outra forma seria removido rapidamente permaneça ativo por um período mais longo, potencialmente causando danos.”
“Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
O relatório surge mais de um ano depois Jornal de Wall Street revelou detalhes sobre a verificação cruzada publicamente. Após suas revelações, a Meta pediu ao Conselho de Supervisão para avaliar o programa, mas o conselho reclamou que a Meta não forneceu informações importantes sobre ele, como detalhes sobre seu papel na moderação das postagens de Trump. O anúncio de hoje aparentemente segue meses de idas e vindas entre a Meta e o Conselho de Supervisão, incluindo a revisão de “milhares” de páginas de documentos internos, quatro briefings da empresa e um pedido de respostas para 74 perguntas. O documento resultante inclui diagramas, estatísticas e declarações da Meta que ajudam a esclarecer como ela organizou um programa de revisão em várias camadas.
“É uma pequena parte do que a Meta faz, mas acho que gastando tanto tempo e analisando isso [much] detalhe, expôs algo que é um pouco mais sistêmico dentro da empresa”, disse Alan Rusbridger, membro do Conselho de Supervisão The Verge. “Acredito sinceramente que há muitas pessoas na Meta que acreditam nos valores da liberdade de expressão e nos valores de proteção do jornalismo e proteção das pessoas que trabalham na sociedade civil. Mas o programa que eles criaram não estava fazendo essas coisas. Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
A verificação cruzada foi projetada para evitar remoções inapropriadas de postagens de um subconjunto de usuários, enviando essas decisões por meio de um conjunto de análises humanas, em vez do processo normal de moderação pesada de IA. Seus membros (que, como Rusbringer observa, não são informados de que estão protegidos) incluem jornalistas que reportam de zonas de conflito e líderes cívicos cujas declarações são particularmente interessantes. Também abrange “parceiros de negócios” que incluem editores, artistas, empresas e organizações de caridade.
De acordo com as declarações da Meta citadas no relatório, o programa favorece a subexecução das regras da empresa para evitar uma “percepção de censura” ou uma experiência ruim para pessoas que trazem dinheiro e usuários significativos para o Facebook e o Instagram. Meta diz que, em média, pode levar mais de cinco dias para fazer uma chamada em um conteúdo. Um backlog de moderação às vezes atrasa ainda mais as decisões – no máximo, um conteúdo permaneceu na fila por mais de sete meses.
O Conselho de Supervisão tem frequentemente criticado a Meta por remover postagens com excesso de zelo, principalmente aquelas com expressão política ou artística. Mas, neste caso, expressou preocupação de que a Meta estivesse permitindo que suas parcerias comerciais ofuscassem danos reais. Um acúmulo de checagem cruzada, por exemplo, atrasou uma decisão quando o jogador de futebol brasileiro Neymar postou fotos nuas de uma mulher que o acusou de estupro – e depois da postagem, que foi uma clara violação das regras do Meta, Neymar não sofreu o típico pena de ter sua conta deletada. O conselho observa que Neymar mais tarde assinou um contrato de streaming exclusivo com a Meta.
Por outro lado, parte do problema é que os usuários comuns não obtenha a mesma moderação prática, graças à escala massiva do Facebook e do Instagram. A Meta disse ao Conselho de Supervisão que, em outubro de 2021, estava realizando 100 milhões de ações de aplicação de conteúdo todos os dias. Muitas dessas decisões são automatizadas ou submetidas a uma revisão humana muito superficial, já que é um grande volume que seria difícil ou impossível de coordenar em um sistema de moderação puramente humano. Mas o conselho diz que não está claro se o Meta rastreia ou tenta analisar a precisão do sistema de verificação cruzada em comparação com a moderação de conteúdo comum. Se isso acontecesse, os resultados poderiam indicar que muitos conteúdos de usuários comuns provavelmente estavam sendo sinalizados incorretamente como violando as regras, ou que a Meta estava subestimando suas políticas para usuários de alto perfil.
“Minha esperança é que a Meta tenha coragem.”
O conselho fez 32 recomendações à Meta. (Como de costume, a Meta deve responder às recomendações dentro de 60 dias, mas não é obrigada a adotá-las.) As recomendações incluem ocultar postagens marcadas como violações de “alta gravidade” enquanto uma revisão está em andamento, mesmo quando postadas por empresas. parceiros. A diretoria pede à Meta que priorize a melhoria da moderação de conteúdo para “expressão que é importante para os direitos humanos”, adotando uma fila especial para esse conteúdo separada dos parceiros de negócios da Meta. Ele pede à Meta que estabeleça “critérios públicos claros” para quem está incluído nas listas de verificação cruzada – e, em alguns casos, como atores estatais e parceiros de negócios, para marcar publicamente esse status.
Algumas dessas recomendações, como a marcação pública de contas, são decisões políticas que provavelmente não exigiriam recursos extras significativos. Mas Rusbridger reconhece que outros – como eliminar o atraso para checagem cruzada – exigiriam uma expansão “substancial” da força de moderação da Meta. E o relatório chega em meio a um período de austeridade para a Meta; no mês passado, a empresa demitiu cerca de 13% de sua força de trabalho.
Rusbridger expressa esperança de que o Meta ainda priorize a moderação de conteúdo ao lado de programas técnicos “mais difíceis”, mesmo que aperte o cinto. “Minha esperança é que a Meta tenha coragem”, diz ele. “Por mais tentador que seja cortar as áreas ‘suaves’, acho que, a longo prazo, eles devem perceber que não é uma coisa muito sábia a se fazer.”
O Conselho de Supervisão da Meta divulgou um relatório detalhado sobre o controverso sistema de verificação cruzada do Facebook e do Instagram, pedindo à Meta que torne o programa “radicalmente” mais transparente e reforce seus recursos.
O Conselho de Supervisão semi-independente citou “várias deficiências” na verificação cruzada, que fornece uma fila de moderação especial para figuras públicas de alto perfil, incluindo o ex-presidente Donald Trump antes de sua suspensão do Facebook. Ele destacou uma falha em deixar claro quando as contas são protegidas por status especial de verificação cruzada, bem como casos em que o material que quebra as regras – particularmente um caso de pornografia não consensual – foi deixado por um período prolongado de tempo. E criticou o Meta por não acompanhar as estatísticas de moderação que podem avaliar a precisão dos resultados do programa.
“Embora a Meta tenha dito ao conselho que a verificação cruzada visa promover os compromissos da Meta com os direitos humanos, descobrimos que o programa parece mais diretamente estruturado para satisfazer as preocupações dos negócios”, diz o relatório. “O conselho entende que a Meta é um negócio, mas ao fornecer proteção extra a certos usuários selecionados em grande parte de acordo com os interesses comerciais, a verificação cruzada permite que o conteúdo que de outra forma seria removido rapidamente permaneça ativo por um período mais longo, potencialmente causando danos.”
“Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
O relatório surge mais de um ano depois Jornal de Wall Street revelou detalhes sobre a verificação cruzada publicamente. Após suas revelações, a Meta pediu ao Conselho de Supervisão para avaliar o programa, mas o conselho reclamou que a Meta não forneceu informações importantes sobre ele, como detalhes sobre seu papel na moderação das postagens de Trump. O anúncio de hoje aparentemente segue meses de idas e vindas entre a Meta e o Conselho de Supervisão, incluindo a revisão de “milhares” de páginas de documentos internos, quatro briefings da empresa e um pedido de respostas para 74 perguntas. O documento resultante inclui diagramas, estatísticas e declarações da Meta que ajudam a esclarecer como ela organizou um programa de revisão em várias camadas.
“É uma pequena parte do que a Meta faz, mas acho que gastando tanto tempo e analisando isso [much] detalhe, expôs algo que é um pouco mais sistêmico dentro da empresa”, disse Alan Rusbridger, membro do Conselho de Supervisão The Verge. “Acredito sinceramente que há muitas pessoas na Meta que acreditam nos valores da liberdade de expressão e nos valores de proteção do jornalismo e proteção das pessoas que trabalham na sociedade civil. Mas o programa que eles criaram não estava fazendo essas coisas. Estava protegendo um número limitado de pessoas que nem sabiam que estavam na lista.”
A verificação cruzada foi projetada para evitar remoções inapropriadas de postagens de um subconjunto de usuários, enviando essas decisões por meio de um conjunto de análises humanas, em vez do processo normal de moderação pesada de IA. Seus membros (que, como Rusbringer observa, não são informados de que estão protegidos) incluem jornalistas que reportam de zonas de conflito e líderes cívicos cujas declarações são particularmente interessantes. Também abrange “parceiros de negócios” que incluem editores, artistas, empresas e organizações de caridade.
De acordo com as declarações da Meta citadas no relatório, o programa favorece a subexecução das regras da empresa para evitar uma “percepção de censura” ou uma experiência ruim para pessoas que trazem dinheiro e usuários significativos para o Facebook e o Instagram. Meta diz que, em média, pode levar mais de cinco dias para fazer uma chamada em um conteúdo. Um backlog de moderação às vezes atrasa ainda mais as decisões – no máximo, um conteúdo permaneceu na fila por mais de sete meses.
O Conselho de Supervisão tem frequentemente criticado a Meta por remover postagens com excesso de zelo, principalmente aquelas com expressão política ou artística. Mas, neste caso, expressou preocupação de que a Meta estivesse permitindo que suas parcerias comerciais ofuscassem danos reais. Um acúmulo de checagem cruzada, por exemplo, atrasou uma decisão quando o jogador de futebol brasileiro Neymar postou fotos nuas de uma mulher que o acusou de estupro – e depois da postagem, que foi uma clara violação das regras do Meta, Neymar não sofreu o típico pena de ter sua conta deletada. O conselho observa que Neymar mais tarde assinou um contrato de streaming exclusivo com a Meta.
Por outro lado, parte do problema é que os usuários comuns não obtenha a mesma moderação prática, graças à escala massiva do Facebook e do Instagram. A Meta disse ao Conselho de Supervisão que, em outubro de 2021, estava realizando 100 milhões de ações de aplicação de conteúdo todos os dias. Muitas dessas decisões são automatizadas ou submetidas a uma revisão humana muito superficial, já que é um grande volume que seria difícil ou impossível de coordenar em um sistema de moderação puramente humano. Mas o conselho diz que não está claro se o Meta rastreia ou tenta analisar a precisão do sistema de verificação cruzada em comparação com a moderação de conteúdo comum. Se isso acontecesse, os resultados poderiam indicar que muitos conteúdos de usuários comuns provavelmente estavam sendo sinalizados incorretamente como violando as regras, ou que a Meta estava subestimando suas políticas para usuários de alto perfil.
“Minha esperança é que a Meta tenha coragem.”
O conselho fez 32 recomendações à Meta. (Como de costume, a Meta deve responder às recomendações dentro de 60 dias, mas não é obrigada a adotá-las.) As recomendações incluem ocultar postagens marcadas como violações de “alta gravidade” enquanto uma revisão está em andamento, mesmo quando postadas por empresas. parceiros. A diretoria pede à Meta que priorize a melhoria da moderação de conteúdo para “expressão que é importante para os direitos humanos”, adotando uma fila especial para esse conteúdo separada dos parceiros de negócios da Meta. Ele pede à Meta que estabeleça “critérios públicos claros” para quem está incluído nas listas de verificação cruzada – e, em alguns casos, como atores estatais e parceiros de negócios, para marcar publicamente esse status.
Algumas dessas recomendações, como a marcação pública de contas, são decisões políticas que provavelmente não exigiriam recursos extras significativos. Mas Rusbridger reconhece que outros – como eliminar o atraso para checagem cruzada – exigiriam uma expansão “substancial” da força de moderação da Meta. E o relatório chega em meio a um período de austeridade para a Meta; no mês passado, a empresa demitiu cerca de 13% de sua força de trabalho.
Rusbridger expressa esperança de que o Meta ainda priorize a moderação de conteúdo ao lado de programas técnicos “mais difíceis”, mesmo que aperte o cinto. “Minha esperança é que a Meta tenha coragem”, diz ele. “Por mais tentador que seja cortar as áreas ‘suaves’, acho que, a longo prazo, eles devem perceber que não é uma coisa muito sábia a se fazer.”