FOLHA DE S.PAULO
Paula Soprana
Embora a desinformação não tenha um conceito universal a ser seguido por redes sociais, as grandes empresas de tecnologia se viram forçadas a adotar medidas para conter a onda de notícias falsas e informações enganosas que passaram a exercer forte influência em processos democráticos.
Estudo do Intervozes, uma organização ativista que estuda mídia, liberdade de expressão e internet, publicado a poucas semanas das eleições municipais no Brasil, identificou como Facebook, Instagram, WhatsApp, YouTube e Twitter lidam com o tema.
A principal conclusão é que, apesar de avanços para inibir notícias falsas em suas plataformas, as empresas não estruturaram o assunto em seus termos de uso —as políticas contratuais que apresentam a usuários e reguladores.
Embora evitem moderar a circulação de informação em suas redes, as chamadas big techs têm atuado nessa frente, excluindo publicações, principalmente com a chegada da Covid, que elevou o potencial danoso de uma informação falsa.
De acordo com os pesquisadores, o problema de não organizar as medidas contra a desinformação é que os processos que resultam em exclusão de um conteúdo ou redução de seu alcance ao público não são evidenciados em relatórios de transparência, o que é prejudicial à liberdade de expressão.
“Do ponto de vista da informação sobre como lida com conteúdos desinformativos, chamou atenção a baixa transparência das plataformas”, diz o estudo, acrescentando que boa parte do trabalho se baseou em buscar informações dispersas em notícias nos sites oficiais e em sites de ‘ajuda’ ou FAQ de cada uma das empresas.
Veja as principais medidas implementadas por cada plataforma desde 2018
Não tem política específica para desinformação
Em 2020, criou o Conselho de Supervisão de Conteúdo, formado por membros externos à empresa e que toma decisões sobre casos específicos, não apenas relativos à desinformação
Apresenta estratégias para o tema de maneira resumida nos Padrões da Comunidade (sua política de uso)
Recebe denúncias e utiliza sistemas automatizados para analisar publicações
Encaminha conteúdos para agências de checagem parceiras. Caso sejam classificados como “falsos” ou “parcialmente falsos”, são rotulados e acompanhados de artigos relacionados produzidos pelos checadores
Declarações de líderes políticos não passam por agências de checagem
Remove casos de desinformação que causem violência, dano ou comprometam processos eleitorais
Reduz a circulação de contas difusoras de conteúdos como caça-cliques
Com a política que proíbe discurso de ódio desde 2018, passou a restringir algumas transmissões ao vivo e a indicar materiais de combate ao ódio em buscas relacionadas a nazismo e supremacia branca, por exemplo
Derruba contas de “comportamento não autêntico coordenado”, como redes com contas falsas para promover assuntos específicos
Possui uma biblioteca com anúncios pagos com informações para pesquisa
Instagram
Segue a linha geral adotada pelo Facebook, com os mesmos flucos e procedimentos
Não possui estrutura institucional ou processos específicos para tratar de desinformação
Analisa conteúdos a partir de agências de checagem de fatos, que classificam uma publicação em diferentes categorias. Conteúdos são marcados quando verificados como desinformativos e podem ter circulação reduzida
São removidos conteúdos com falsos tratamentos sobre Covid-19, teorias da conspiração ou falsas alegações registradas como danosas por autoridades de saúde
Durante as eleições, se um conteúdo for classificado como falso, um filtro cinza é exibido sobre a imagem e alertas são dados ao usuário
Disponibiliza textos de contraponto elaborados por verificadores de fatos como “desmentidos”
Contas falsas são removidas, a maior parte já na tentativa de abertura
Na linha do Facebook, contas ou redes com “comportamento inautêntico” são derrubadas
WhatsApp
Apresenta-se como plataforma de mensagens privadas criptografadas que, como tal, não acessa, modera, julga, verifica, bloqueia ou retira conteúdo. Segundo o estudo, isso “é contraditório com a existência de grupos e listas de transmissão que acabam fazendo com que tenha funcionamento de rede social”
Não possui política ou estrutura institucional para lidar com desinformação
Atua para reduzir a circulação de mensagens por meio de limites para encaminhamento
Desde a pandemia, mensagens altamente encaminhadas só podem ser repassadas a um contato de cada vez
Nas eleições de 2020, firmou acordo com TSE para denúncia de disparo em massa e criou chatbot para troca de informações
No aplicativo ou no blog oficial, há referências sobre desinformação, mas são dispersas e pouco acessíveis ao usuário comum
“Falta transparência quanto às práticas adotadas pelo WhastApp”, diz o estudo, referindo-se à proibição de criação ou remoção de contas, além de relatórios
Inseriu uma lupa ao lado de mensagens altamente encaminhadas para que o usuário busque mais informações diretamente no Google
Usa ferramentas de tratamento de spam e aprendizagem de máquinas para retirar mensagens automatizadas em massa e banir contas com comportamentos inadequados
YouTube
Não possui política específica para o tema. Restrições à disseminação de desinformação aparecem em diferentes políticas
Conteúdos que violam as Diretrizes da Comunidade são removidos e notificados
Estimula a denúncia de conteúdos considerados inapropriados, que são analisados internamente
Tira do ar conteúdos que violam suas diretrizes e reduz o alcance de “desinformação danosa” e “conteúdos limítrofes”, deixando de recomendá-los
Vídeos editados e adulterados são proibidos pela política de “mídia manipulada”, assim como canais que falseiam sua identidade
Possui um grupo de análise de ameaças para identificar práticas de desinformação patrocinadas por governos
Exibe painéis de informação com dados de contexto sobre assuntos históricos com “vozes autorizadas”, como canais de jornalismo, por exemplo
Remove conteúdos e canais que desrespeitam a política para eleições e passou a remover informações enganosas sobre a Covid-19
Tem política contra spam, falsificação de identifidade e envolvimento falso, e restringe o acesso ao serviços por qualquer meio automatizado
Twitter
Não tem definição específica para desinformação
Oferece contexto para ajudar pessoas a decidir o teor de um post contestado, agindo em casos de possíveis danos causados por mídias manipuladas, informações enganosas sobre processos eleitorais e relacionadas à Covid-19
Proíbe o uso de robôs manipuladores da rede
Mídias manipulada são marcadas, têm visibilidade reduzida, recebem link com mais explicações ou são removidas
Não permite anúncios pagos de políticos e de veículos de comunicação estatais
Conteúdos que possam enganar as pessoas sobre quando, onde e como votar também são proibidos
Posts de líderes globais, mesmo que desinformativos, ficam no ar se forem de interesse público. A publicação é exibida com um aviso e não é possível interagir com ele
Com a pandemia, ampliou a definição de “dano” para incluir conteúdos contrários às recomendações das autoridades de saúde; remove posts relativos a ações de risco
Abriu a plataforma para acompanhamento em tempo real de postagens sobre a Covid por desenvolvedores e pesquisadores
Divulga arquivos de posts de atividades coordenadas apoiadas por governos
GUIA PARA O ELEITOR
Saiba quais são os candidatos e as candidatas à prefeitura em todas as capitais do país
Veja o calendário da eleição municipal; primeiro turno será em 15 de novembro
Veja as mais recentes pesquisas nas disputas pelas prefeituras das principais cidades do país
Almanaque eleitoral: veja números e curiosidades das disputas municipais de 2020
Entenda as atribuições dos prefeitos e o que pode ser cobrado dos eleitos em 2020
Entenda o financiamento das eleições e conheça os fundos públicos e as fraudes comuns
Saiba como denunciar conteúdos nas redes sociais durante as eleições
Saiba como serão as eleições a vereador após mudança de regras sobre as coligações