Desde que a mídia social se tornou uma parte importante de nossa vida dentro das Notícias dos Famosos, a moderação do conteúdo do discurso político sempre foi um tema polêmico nessas plataformas. A verdadeira questão é quem realmente deveria ter o poder de moderar a fala? – deve ser o governo ou empresas privadas.
O que é moderação de conteúdo e por que ela é necessária nas plataformas de mídia social?
Em palavras simples, moderação de conteúdo é quando as plataformas de mídia social filtram ou censuram conteúdo gerado pelo usuário, como postagens ou comentários, para garantir que o conteúdo cumpra os regulamentos do site, não seja ilegal, impróprio ou de alguma forma relacionado a assédio, etc. Hoje as plataformas de Entretenimento têm um grande impacto na nossa vida, abrigam um espaço de troca de ideias nunca antes visto, dominam o discurso político da nossa sociedade e uma percentagem considerável da população obtém as suas notícias nas plataformas das redes sociais incluindo os legisladores. Houve muitos casos em vários países em que legisladores foram vítimas de notícias falsas e teorias da conspiração na Internet.
O mais recente foi quando Marjorie Taylor Greene, que está servindo como representante dos EUA no 14º distrito congressional da Geórgia, acreditou em Qanon e em outras teorias da conspiração, como o ataque de 11 de setembro, quando questionada sobre isso no congresso, ela disse que aprendeu sobre tudo isso nas redes sociais. Quando aqueles que fazem as leis estão propensos e suscetíveis a notícias falsas nas redes sociais, isso pode facilmente criar o caos na sociedade. Houve vários casos em que o discurso nas redes sociais tem efeitos no mundo real, como as eleições presidenciais dos EUA de 2016, a crise de Rohingya, o protesto dos Famosos antes e depois, etc.
Também nessas plataformas de mídia social, há muitos adolescentes expostos a informações / desinformação, teorias de conspiração e propaganda nas quais eles são facilmente suscetíveis de acreditar. Iann Dior, um cantor, rapper e compositor de 22 anos acredita que o pouso na lua foi encenado, em uma entrevista, ele disse que se deparou com isso no Youtube e no Twitter. Também houve casos em que a desinformação nas redes sociais levou adolescentes na Índia rural a linchar uma família acusada de comer carne, o que nunca foi provado.
Portanto, vemos a necessidade de saber por que é absolutamente essencial que a moderação de conteúdo ocorra nessas plataformas.
Como diferentes plataformas moderam o conteúdo?
A moderação de conteúdo em plataformas de mídia social começou quando organizações extremistas como ISIS e Al-Qaeda começaram a promover propaganda de e vídeos de decapitações bárbaras, de modo que as plataformas começaram a derrubá-los. Hoje a moderação de conteúdo não é apenas remover postagens de organizações extremistas, diferentes plataformas moderam conteúdo de maneiras diferentes em relação às diretrizes da comunidade. De modo geral, todas as plataformas de mídia social têm diretrizes comunitárias semelhantes, que visam principalmente prevenir a violência no mundo real e minimizar os danos causados à sociedade.
Uma diferença é vista na maneira como eles aplicam isso, grandes e proeminentes plataformas de mídia social são capazes de aplicar as diretrizes da comunidade e moderar o conteúdo de Como Fazer. Plataformas menores estão enfrentando problemas na aplicação de políticas de moderação de conteúdo e isso causou sérios danos. Um exemplo proeminente disso é o caso do motim no Capitólio de 6 de janeiro – onde a maioria da desinformação e do discurso de ódio veio de uma plataforma ‘Parler’. Com a moderação de conteúdo em plataformas de mídia social maiores, a desinformação e a propaganda mudaram para plataformas de mídia social menores com falta de moderação de conteúdo e essas plataformas podem ser usadas como máquinas de propaganda.
Com a ajuda deste artigo, quero mostrar a diferença na moderação de conteúdo entre o Twitter e o Koo (uma plataforma que se autodenomina o substituto indiano do Twitter)
Como Koo modera seu conteúdo?
Koo é um microblog indiano e serviço de Fofocas com sede em Bengaluru, Índia. Anteriormente conhecido como Ku Koo Ku, o aplicativo foi desenvolvido por Aprameya Radhakrishna e Mayank Bidawatka. Ele venceu o Desafio de Inovação de Aplicativos Aatmanirbhar do Governo da Índia em agosto de 2020. O aplicativo está avaliado atualmente em mais de US $ 100 milhões.
O fundador da Koo afirmou várias vezes que suas políticas de moderação não serão como Twitter e Facebook, mas ainda assim suas políticas parecem bastante para os gigantes da mídia social. Uma exceção pode ser feita, pois suas políticas religiosas são mais bem regulamentadas do que outras plataformas. Ele cuidou da regulamentação de comentários delicados contra religiões, de acordo com esta política que impede o conteúdo islamofóbico, mas também pode reduzir questões como reuniões religiosas em massa em tempos de cobiça. Outra grande diferença entre a moderação de conteúdo do Koo e os gigantes da mídia social é que o Facebook e o Twitter estão genuinamente tentando fazer cumprir suas políticas, mas Koo ainda não tem a máquina pronta para lidar com discurso de ódio, desinformação, etc.
A plataforma está repleta de conteúdo com discurso de ódio e apelos à violência. Pode-se dizer que as contas de que estou falando são obscuras, mas elas têm 500 seguidores e vão até 8.000, o que é decentemente popular para chamar a atenção das pessoas. Mesmo quando você denuncia um ‘Koo’ que está violando sua política, você não obtém uma resposta satisfatória sobre como eles vão reagir a isso ou mesmo se sua reclamação foi registrada. Em uma entrevista em resposta a uma pergunta sobre moderação de conteúdo, o fundador disse “Nós não governamos. Por que devemos governar? É uma plataforma de expressão livre ”. Esse comentário não é apenas preocupante como usuários, mas está se tornando cada vez mais a mentalidade e a infraestrutura que estamos estabelecendo para nossas gerações futuras.
Radhakrishna disse recentemente: “Não somos nós que devemos agir. Existe um governo eleito. Independentemente de quem comanda o governo no futuro … Se isso vai levar à violência, vamos cooperar com o governo. ”O que é problemático no núcleo. A seriedade de tais comentários é reconhecida por alguns e, para citar Edward Snowden: “Queremos que os governos nos digam o que podemos ou não podemos dizer na Internet? Nas mãos erradas, este poder pode ser mal utilizado ”
O Koo pode ser usado como uma máquina de propaganda?
O Koo do zero foi criado para ser um ajuste perfeito para espalhar propaganda. Ele está disponível em vários idiomas locais, o que torna mais fácil para a maioria dos indianos usar o aplicativo. Ele tem uma postagem direta no botão do WhatsApp que facilita a divulgação de informações incorretas, mesmo em diferentes plataformas. O Whatsapp, sendo um site extremamente influente e popular, só aumenta o problema por meio desse recurso.
Os fundadores da Koo em várias entrevistas disseram que se o governo indiano lhes pedir informações sobre contas de usuário que “violam a lei”, eles as entregarão e moderarão a plataforma de acordo. Com isso, o governo pode facilmente conter a dissidência na plataforma. Além disso, suas políticas de moderação de conteúdo e a falta real de moderação imparcial de conteúdo podem ser usadas como uma máquina de propaganda. Houve muitas comparações entre plataformas como Koo e as plataformas de mídia social da China, We – chat e Weibo, o que deve ser motivo de preocupação para nós. Se plataformas como Facebook e Twitter forem proibidas na Índia por falar a verdade e enfrentar as leis de mídia social do governo, a maioria dos usuários mudaria para Koo e isso é preocupante, pois o governo pode facilmente conter a dissidência nesta plataforma.
Também levanta uma questão extremamente importante para todas as nossas mentes, quem deve moderar nosso conteúdo? A quem esse poder deve ser conferido? Como podemos confiar no detentor desse poder?
Quem deve moderar nosso conteúdo em plataformas de mídia social?
É aqui que as opiniões ficam polêmicas porque algumas pessoas acreditam que o conteúdo deve ser moderado pela plataforma e outras pensam que deve ser moderado pelo governo. Portanto, quando se trata de plataformas de mídia social que moderam conteúdo no papel, parece ser a maneira mais ideal para algumas pessoas, pois são “imparciais” e “protegem a liberdade de expressão” em suas plataformas. Até certo ponto, é verdade, pois houve casos em que eles até enfrentaram governos em questões de liberdade de expressão. Algumas empresas / plataformas são bastante transparentes sobre a moderação de conteúdo (Facebook e Twitter Transparency Report), mas também uma crítica válida que recebem é que tudo o que importa é o resultado final. Essas plataformas costumam ser acusadas de promover indiretamente desinformação para obter receita de publicidade e manter os usuários engajados na plataforma.
No caso do Twitter, o Reino da Arábia Saudita tem um dos maiores sistemas de desinformação e propaganda por meio do qual eles enviam sua propaganda na plataforma, houve esforços mínimos para coibir isso, já que o príncipe herdeiro da Arábia Saudita tem 9% participação no Twitter. Estas são as razões pelas quais algumas pessoas acham que a moderação de conteúdo deve ser feita pelo governo, já que eles não têm fins lucrativos e tecnicamente se preocupam com seus constituintes, mas esse poder pode ser totalmente mal utilizado e pode ser usado para restringir a liberdade de expressão e promover sua propaganda .
Em uma nota final, qual é a resposta para a pergunta? Na minha opinião, a moderação de conteúdo deve ser dupla – se a plataforma e o governo moderarem o conteúdo, ela cria um sistema de controle e equilíbrio em que um garante que o outro não abuse e abuse de seu poder.