O Facebook agora está moderando o conteúdo do jogo bitcoin 2048

Uma coisa é clara sobre essa corrida armamentista: é uma batalha absurda de máquina contra máquina. Um conjunto de máquinas cria as contas falsas. Outro exclui-los. Isso acontece milhões de vezes todo mês. Nenhum grupo de seres humanos tem tempo para criar milhões, e muito menos bilhões, de contas no Facebook manualmente. As pessoas têm executado scripts de computador para automatizar o processo de registro. Isso significa que as máquinas do Facebook detectam as falsificações com bastante facilidade. (O Facebook diz que menos de 1,5% das falsificações foram identificadas pelos usuários.)

Mas pode ser que, em seu zelo para enganar as críticas de todos os lados, o Facebook tenha corrigido muito e agora é moderação excessiva. O problema fundamental é que é quase impossível saber a verdadeira quantidade de desinformação em uma plataforma.


Por um lado, há pouco acordo sobre que tipo de conteúdo precisa ser policiado. É duvidoso que todos concordariam com o que constitui uma notícia falsa e a separa da desinformação ou propaganda e de como tudo isso difere do discurso de ódio. Mas, mais fundamentalmente, mesmo que todos concordassem com o que deveria ser retirado, ainda não está claro se os métodos de filtragem algorítmica poderiam aproximar-se disso perfeitamente.

jogo de queda de bitcoin

Detectar conteúdo que viole um código de discurso de ódio ou um padrão de desinformação leva a um problema de operacionalização massivo. Uma empresa como Facebook não vai ser perfeito. Poderia produzir um regime de detecção que era ou baixo ou excessivo. É claro que é apenas uma evidência mínima, mas tenho visto muitos dos meus amigos no Facebook postarem sobre como seus próprios posts foram retirados e ficou claro que eles não eram políticos.

Tem havido muitos relatos confiáveis ​​nos últimos dois anos alegando viés anticonservativo nas três grandes plataformas da Internet, incluindo a revelação de 2016 de que o Facebook havia rotineiramente suprimido os canais conservadores na seção de notícias de “tendências” da rede. Além disso, quando o YouTube de propriedade do alfabeto puxa para baixo e desmonetiza o conservador convencional conteúdo de sites como o PragerU, certamente dá a impressão de que a empresa tem seu polegar na escala.

bitcoin Argentina

West prossegue citando um estudo sobre os esforços de moderação, que descobriu que os usuários achavam que o Facebook era “poderoso, perceptivo e, em última instância, incognoscível”. Tanto Vaidhyanathan quanto Bolyard poderiam promover teorias populares semelhantes. Ambos são perspicazes em seus comentários e oferecem muito a considerar, mas todos nessa discussão, incluindo os operadores do Facebook e do Twitter, são prejudicados por um problema fundamental de conhecimento.

bitcoin preço ao vivo

Jack, CEO do Twitter, afirmou que o Twitter não se concentra em saber se o conteúdo político se origina no exterior para determinar como tratá-lo. Como o Twitter, ao contrário do Facebook, não possui uma política de “nome real”, o Twitter não pode priorizar a autenticidade. Em vez disso, Dorsey descreveu o Twitter como voltado para o uso de inteligência artificial e aprendizado de máquina para detectar “padrões comportamentais” que sugerem a coordenação entre contas ou o jogo do sistema. Em certo sentido, isso também é um substituto para a falta de autenticidade, mas em uma escala sistemática e não individual. O foco do Twitter, de acordo com Dorsey, é como as pessoas jogam o sistema nos “espaços compartilhados [no Twitter] onde qualquer um pode se inserir”, em vez das características dos perfis que os usuários escolhem seguir.

Dorsey parece estabelecer uma comparação entre as duas empresas. O método do Facebook de detectar conteúdos nefastos lida com o perfil, como uma pessoa autenticada, em relação ao conteúdo que é compartilhado. O Twitter, por outro lado, está procurando pessoas para jogar o sistema nos “espaços compartilhados [no Twitter] onde qualquer um pode se interpor”. Pode ser uma leitura errada, mas Dorsey sugere que o Twitter está enfatizando as ações dos usuários, que conduziria a uma abordagem mais estrutural.

Escusado será dizer que FacebookA rede social da empresa é diferente da do Twitter, levando a abordagens diferentes com moderação. O Facebook cria conexões diádicas. As relações em Facebook Corra nos dois sentidos. Tornar-se amigos significa que estamos em um relacionamento mútuo. Twitter, no entanto, permite que as pessoas sigam outras sem reciprocidade. O resultado são estruturas de rede distintas. O Pew, por exemplo, conseguiu distinguir entre seis diferentes estruturas amplas, incluindo multidões polarizadas, multidões apertadas, clusters de marcas, clusters de comunidades, redes de transmissão e redes de suporte. Combinados, esses recursos tornam difícil para os pesquisadores e operadores entenderem o escopo do problema e como as soluções estão funcionando ou não.

bitcoin por bloco

Conteúdo moderação em escala é difícil. E bagunçado. Ao criar um regime técnico para lidar com esse problema, não devemos esperar que as plataformas fiquem perfeitas. Enquanto muitos criticaram as plataformas por moderação, eles podem agora estar moderação excessiva. Ainda assim, há um enorme problema de conhecimento na tentativa de entender se o nível atual de moderação é ótimo.