Dono do Twitter e autoproclamado “absolutista da liberdade de expressão“, Elon Musk, está enfrentando um desafio legal na Alemanha sobre como a plataforma lida com o discurso de ódio anti-semita.
A ação, que foi movida ontem no tribunal regional de Berlim pelo HateAid, um grupo que faz campanha contra o discurso de ódio, e a União Europeia de Estudantes Judeus (EUJS), argumenta que o Twitter de propriedade de Musk não está cumprindo suas próprias regras contra o conteúdo anti-semita, incluindo a negação do holocausto.
A negação do Holocausto é crime na Alemanha – que tem leis rígidas que proíbem discurso de ódio anti-semita – tornando o tribunal de Berlim uma arena atraente para ouvir tal desafio.
“[A]Embora o Twitter proíba as hostilidades anti-semitas em suas regras e políticas, a plataforma deixa muito desse tipo de conteúdo online. Mesmo que a plataforma seja alertada sobre isso pelos usuários”, argumentam os litigantes. “Estudos atuais provam que 84% das postagens contendo discurso de ódio anti-semita não foram revisadas pelas plataformas de mídia social, conforme mostrado em um estudo do Center for Countering Digital Hate. O que significa que o Twitter sabe que os judeus estão sendo atacados publicamente na plataforma todos os dias e que o anti-semitismo está se tornando uma normalidade em nossa sociedade. E que a resposta da plataforma não é de forma alguma adequada.”
De sua parte, Musk afirmou repetidamente que o Twitter respeitará todas as leis dos países onde opera (incluindo as leis europeias de discurso). Embora ele ainda não tenha feito nenhum comentário público sobre esse processo específico.
Desde que o CEO da Tesla assumiu o Twitter no final de outubro, ele reduziu drasticamente o número de funcionários do Twitter, inclusive nas principais funções de segurança, como moderação de conteúdo – também reduzindo a equipe em escritórios regionais na Europa, inclusive na Alemanha. Além disso, ele dissolveu totalmente o Conselho de Segurança e Confiança do Twitter e restabeleceu dezenas de contas que haviam sido banidas anteriormente por quebrar as regras do Twitter – criando condições que parecem ideais para que o discurso de ódio floresça sem controle.
Ao longo dos quase três meses de Musk como CEO do Twitter, houve relatos anedóticos – e alguns estudos – sugerindo um aumento do ódio na plataforma. Enquanto muitos ex-usuários culparam o aumento do ódio e do abuso por abandonar a plataforma desde que ele assumiu.
Notavelmente, o processo está focado em exemplos de discurso de ódio que foram postados no Twitter nos últimos três meses desde que Musk estava no cargo, de acordo com a Bloomberg, que relatou o litígio anteriormente.
Portanto, parece um teste legal interessante para Musk, pois o processo aplica uma lente externa a como a plataforma está aplicando políticas anti-discurso de ódio em uma era de reconfiguração operacional errática (e drástica) sob a supervisão do novo proprietário.
Enquanto o libertário bilionário geralmente tenta desviar as críticas de que está levando o Twitter para águas tóxicas – por meio de uma mistura de negação, pesca de incentivo, ataques direcionados a críticos e auto-engrandecimento contínuo (do que ele descreve como um esforço quase neo-iluminista para ser uma serva para o futuro da civilização humana, ‘libertando o pássaro’, como ele expressa seu discurso no Twitter ‘reformas’) – ele admitiu uma onda inicial de ódio na plataforma em novembro.
Na época, tuitar um gráfico para ilustrar uma alegação de que os engenheiros do Twitter haviam conseguido reduzir as impressões de discurso de ódio a um terço menos do que os “níveis pré-picos” (como ele batizou o súbito aumento do ódio visto no período logo após sua aquisição da Twitter). Embora ele também tenha sugerido que o pico estava vinculado apenas a um pequeno número de contas, em vez de qualquer redução mais ampla na eficácia da moderação de conteúdo desde que ele assumiu e começou a rasgar o livro de regras existente.
Embora Musk pareça gostar de cultivar a impressão de que é um “absolutista da liberdade de expressão”, a verdade, como sempre com o caubói espacial, parece muito menos binária.
Por exemplo, no Twitter, ele tomou uma série de decisões aparentemente unilaterais e arbitrárias sobre censurar (ou não) certas postagens e/ou contas – incluindo, inicialmente, desbanir Kanye West (também conhecido como Ye) e depois bani-lo novamente por twittar uma imagem de uma suástica com uma estrela de David; sendo o último um símbolo do judaísmo, o primeiro um emblema nazista.
Ou desbanir a conta do ex-presidente dos EUA Donald Trump, que foi suspensa após o violento ataque à capital dos EUA por partidários de Trump – mas se recusando firmemente a restabelecer o pregador do ódio do InfoWars, Alex Jones, já que Musk parece se opor à infame falsidade da conspiração de Jones de que crianças que morreram no tiroteio na escola Sandy Hook eram atores.
Outras decisões tomadas por Musk em relação à moderação de conteúdo do Twitter parecem ser motivadas puramente por interesse próprio – como banir uma conta que twittou a localização de seu jato particular (que ele apelidou de “coordenadas de assassinato”). No ano passado, ele também suspendeu vários jornalistas que relataram o episódio, argumentando que suas reportagens tinham as mesmas implicações para sua segurança pessoal – antes de mudar de rumo diante de uma tempestade de críticas de que ele estava censurando a imprensa livre.
No entanto, quando não baniu jornalistas, Musk literalmente convidou vários hackers escolhidos a dedo para vasculhar documentos internos – e publicar o que ele chamou de “arquivos do Twitter” – no que parece uma tentativa nua (mas muito tediosa) de moldar o narrativa sobre como a antiga liderança da plataforma lidou com a moderação de conteúdo e questões relacionadas, como entrada de agências estaduais solicitando remoção de tweets, etc.; e jogue combustível nas teorias da conspiração conservadoras que reivindicam o shadowban sistemático e/ou rebaixamento de seu conteúdo contra as visões liberais.
(Considerando que pesquisas reais conduzidas pelo Twitter, pré-Musk, olhando para sua amplificação algorítmica de tweets políticos descobriram, pelo contrário, seus AIs realmente dão mais elevação às visões de direita, concluindo: “Em 6 de 7 países estudados, o mainstream a direita política desfruta de maior amplificação algorítmica do que a esquerda política dominante.” Mas quem se importa com dados não escolhidos a dedo, certo?)
Sobre abuso e ódio, Musk também é bastante capaz de distribuí-lo no Twitter – usando sua tática de megafonar trolling e zombar de grupos vulneráveis (ou “wokism”) para jogar carne vermelha para sua base de direita às custas de pessoas que correm um risco desproporcional de serem abusados, como as pessoas trans e não binárias cujos pronomes ele zombou deliberadamente.
Musk também se rebaixou a twittar e/ou amplificar ataques direcionados a indivíduos que levaram a ataques abusivos de seus seguidores – como o que forçou o ex-chefe de confiança e segurança do Twitter, Yoel Roth, a fugir de sua própria casa. Então, hipocrisia sobre riscos de segurança pessoal? Muitíssimo.
Mesmo um observador casual de Musk-Twitter certamente concluiria que há uma falta de consistência na tomada de decisão do Chief Twit – o que, se essa arbitrariedade se infiltrar na aplicação irregular e parcial das políticas da plataforma, significa uma má notícia para a confiança e segurança do Twitter. usuários (e RIP para qualquer conceito de ‘saúde conversacional’ na plataforma).
Se as inconsistências de Musk também levarão a uma ordem judicial na Alemanha exigindo que o Twitter elimine o discurso de ódio ilegal, por meio deste processo HateAid-EUJS, ainda não se sabe.
“As ações do Twitter são baseadas apenas em regras próprias e pouco transparentes, contando com o fato de que os usuários não têm chance de apelar – por exemplo, quando se trata da não exclusão de incitações ao ódio”, argumenta Josephine Ballon, chefe do jurídico para HateAid em um comunicado.
“Não houve nenhum caso em que uma rede social tenha sido processada por isso pelas autoridades. É por isso que a sociedade civil precisa se envolver, buscando formas de exigir a remoção desse conteúdo. Nós, como ONG, agimos como representantes das comunidades afetadas que estão diariamente sujeitas à hostilidade e incitação ao ódio. Assim, podemos aumentar a pressão nas plataformas a longo prazo.”
Curiosamente, o processo não parece estar sendo movido sob a lei de remoção de discurso de ódio de longa data da Alemanha – também conhecida como NetzDG – que, pelo menos no papel, dá aos reguladores o poder de sancionar plataformas em até dezenas de milhões de dólares se não conseguirem rapidamente remover conteúdo ilegal que é relatado a eles.
Mas, como Ballon observa, não houve nenhum processo da NetzDG relacionado a violações de remoção de conteúdo (embora o aplicativo de mensagens Telegram tenha sido recentemente multado em uma pequena quantia por violações relacionadas à falta de canais de denúncia adequados ou representação legal).
Um advogado local com quem conversamos, que não está diretamente envolvido no caso HateAid-EUJS, sugeriu que houve uma espécie de acordo tácito entre as autoridades federais e a empresa de mídia social de que a Alemanha não aplicaria o NetzDG na questão da moderação de conteúdo – também com um de olho na nova regulamentação digital da UE, já que a Lei de Serviços Digitais, que começa a ser aplicada ainda este ano para plataformas maiores, harmoniza regras de governança e relatórios de conteúdo em todo o bloco sob uma única estrutura pan-UE que deve substituir o antigo regime alemão de regulamentação do discurso de ódio .
De sua parte, os litigantes neste caso de discurso de ódio contra o Twitter dizem que querem obter clareza legal sobre se indivíduos (e grupos de defesa) podem processar em tribunal pela remoção de “conteúdo punível, anti-semita e incitante” – como a negação do Holocausto – mesmo quando não são pessoalmente insultados ou ameaçados pelo conteúdo.
Em uma FAQ em uma página da web detalhando seus argumentos, eles explicam [emphasis theirs]:
Se podemos exigir isso, isso será decidido pelo tribunal. Até o momento, não está claro até que ponto os usuários do Twitter, com base nas regras e políticas do Twitter, têm o direito de exigir a exclusão de tal conteúdo nos casos em que eles próprios não sejam afetados. Acreditamos que o Twitter deve cumprir suas próprias regras, das quais se orgulha em seus termos de contrato – para remover postagens anti-semitas e garantir que os judeus possam se sentir seguros na plataforma.
Com nossa ação, cumprimos as promessas contratuais do Twitter. Acreditamos que as plataformas devem excluir conteúdo anti-semita – obviamente, a plataforma precisa ser compelida a fazê-lo.
Se forem bem-sucedidos, eles dizem que esperam que seja mais fácil para os usuários fazer valer seus direitos de exclusão de conteúdo ilegal. contra outras grandes plataformas também. Portanto, pode haver implicações mais amplas se o processo prevalecer.
“Com esse processo fundamental, queremos que os tribunais estabeleçam claramente que plataformas como o Twitter já são obrigadas a proteger os usuários da violência digital antissemita com base em seus próprios acordos de uso”, acrescentam. “Tal julgamento tornará mais fácil para os usuários fazerem valer seus direitos contra os principais operadores de plataformas no futuro. O princípio por trás disso é simples: se os termos do contrato estabelecem que o discurso de ódio é proibido, o Twitter deve ao usuário removê-lo. Isso poderia ser aplicado, por exemplo, por ONGs como a HateAid para tornar a Internet mais segura.”
O Twitter foi contatado para uma resposta ao processo – mas desde que Musk assumiu a plataforma, abandonou a função de comunicação externa de rotina e ainda não respondeu a nenhum dos pedidos de comentário do TechCrunch. (Mas nós ainda perguntamos.)
Vale a pena notar que, antes de Musk, o Twitter também não recebia aplausos esmagadores pelo sucesso no combate ao discurso de ódio ilegal.
Em novembro, o relatório mais recente da UE monitorando o código de discurso anti-ódio do bloco – um acordo voluntário com o qual o Twitter e várias outras plataformas de mídia social assinaram há anos – descobriu que, antes da aquisição de Musk, o Twitter estava realizando relativamente mal versus outros signatários quando se trata de responder rapidamente a denúncias de discurso de ódio ilegal, com a Comissão relatando que removeu apenas 45,4% desse conteúdo em 24 horas (contra uma taxa agregada de remoção de 63,6%). Enquanto, durante o período monitorado de 28 de março a 13 de maio, o Twitter recebeu o segundo maior número de denúncias de discurso de ódio ilegal (o Facebook obteve a maior parte) – relatando pouco menos de 1.100 denúncias. Portanto, parecia estar hospedando uma quantidade relativamente grande de discurso de ódio ilegal (vs plataformas de pares) e ficando atrás de seus rivais na rapidez com que excluía coisas tóxicas.
Portanto, certamente será interessante ver o estado dessas métricas quando (ou se) o Twitter de propriedade de Musk relatar um novo lote de dados à Comissão ainda este ano.