As denúncias feitas contra o Facebook por Frances Haugen, ex-funcionária da empresa, ganharam nova dimensão na última sexta-feira, 22. Um consórcio chamado “The Facebook Papers”, formado por 17 veículos jornalísticos dos Estados Unidos, incluindo New York Times, CNN e Washington Post, começou a publicar detalhes de documentos vazados da companhia de Mark Zuckerberg.
Os arquivos mostram que o Facebook foi alertado por funcionários sobre a disseminação de desinformação e discurso de ódio antes das eleições americanas de 2020 e também em países como a Índia. Além disso, pesquisas internas da empresa revelam que os algoritmos da plataforma impulsionam conteúdos de movimentos conspiratórios como o QAnon. Outro documento revela como o Facebook está lidando com as consequências de ferramentas que se tornaram o DNA da rede social, como o botão “curtir”.
Os veículos jornalísticos tiveram acesso a documentos recebidos pelo Congresso americano, em grande maioria os materiais divulgados por Frances Haugen, que prestou depoimento no Senado dos Estados Unidos em 5 de outubro – na ocasião, a ex-funcionária expôs a lógica da empresa de valorizar o crescimento em detrimento da segurança dos usuários. Novos delatores, porém, estão surgindo: o Washington Post afirmou na sexta-feira que outro ex-funcionário do Facebook também enviou uma denúncia à Securities and Exchange Commission (SEC, na sigla em inglês), órgão regulador das empresas listadas em bolsa nos EUA.
As primeiras revelações de pesquisas internas do Facebook começaram em setembro com uma série de reportagens do Wall Street Journal, que se basearam inicialmente nas revelações de Frances Haugen. O dossiê indicou que o Facebook aumenta o alcance de publicações de ódio, permite a circulação de conteúdos sobre tráfico humano e de drogas, trata celebridades e políticos com regras diferenciadas e não mantém o mesmo nível de moderação em países fora dos Estados Unidos. Também foram divulgados detalhes sobre o impacto do Instagram na saúde mental de crianças e adolescentes: estudos feitos pela própria empresa mostraram que 1 em cada 3 meninas que se sentiam mal com o próprio corpo ficavam ainda pior ao acessar o Instagram. O Facebook tem respondido às acusações nas últimas semanas dizendo que as pesquisas estão sendo mal-interpretadas.
Abaixo, veja o que dizem os documentos divulgados pelo Facebook Papers.
O Washington Post publicou em 25 de outubro uma reportagem sobre o papel de Mark Zuckerberg nas escolhas de valorização do crescimento do Facebook em detrimento da segurança dos usuários. O jornal mostrou que o fundador e presidente executivo da empresa teve de optar entre cumprir as exigências do Partido Comunista do Vietnã para censurar a oposição ou correr o risco de ficar offline em um dos mercados asiáticos mais lucrativos do Facebook. De acordo com três pessoas familiarizadas com o assunto, Zuckerberg decidiu pessoalmente que o Facebook atenderia às exigências do governo vietnamita. Então, o Facebook aumentou significativamente a censura de postagens de oposição, dando ao governo controle quase total sobre a plataforma.
Facebook luta contra os efeitos de ferramentas como o botão ‘curtir’
Publicada em 25 de outubro, uma reportagem do New York Times mostra como o Facebook está lidando com os efeitos de ferramentas da rede social. De acordo com documentos obtidos pelo jornal, pesquisadores do Facebook começaram em 2019 um estudo sobre o botão “curtir” para avaliar o que as pessoas fariam se o Facebook removesse as reações de postagens no Instagram. Os pesquisadores descobriram que os botões às vezes causavam “estresse e ansiedade” nos usuários mais jovens do Instagram, especialmente se as postagens não recebessem curtidas suficientes de amigos.
Além disso, em um memorando interno de agosto de 2019, vários pesquisadores da empresa disseram que foi a “mecânica do produto principal” do Facebook – ou seja, os fundamentos de como o produto funcionava – que permitiu que desinformação e discurso de ódio se espalhassem pela plataforma. “A mecânica da nossa plataforma não é neutra”, concluíram.
Facebook perdeu relevância entre as novas gerações
De acordo com uma reportagem do The Verge publicada em 25 de outubro, uma pesquisa do Facebook realizada neste ano revelou que a quantidade de usuários adolescentes da plataforma nos EUA diminuiu 13% desde 2019 – além disso, o estudo mostra uma projeção de queda de 45% nos próximos dois anos, o que impactaria o dado de usuários ativos diariamente na rede social, uma métrica altamente usada para o mercado publicitário. A pesquisa mostra ainda que quanto mais jovem era o usuário, menos, em média, ele se envolvia regularmente com o aplicativo.
Índia é a versão amplificada dos problemas do Facebook
Uma reportagem do New York Times publicada em 23 de outubro detalha os problemas do Facebook na Índia, que é o maior mercado da rede social. Documentos internos da empresa mostram a dificuldade em conter desinformação, discursos de ódio e violência no país.
Segundo o jornal, em fevereiro de 2019, um pesquisador do Facebook criou uma nova conta na rede social para entender como é ser um usuário da plataforma no Estado de Querala, na Índia. Por três semanas, a conta seguiu todas as recomendações geradas pelos algoritmos do Facebook para ingressar em grupos, assistir a vídeos e explorar novas páginas no site. O resultado foi uma inundação de discursos de ódio e desinformação.
Funcionários alertaram sobre problemas nas eleições americanas
Outra reportagem do New York Times, Publicada em 22 de outubro, detalha que funcionários do Facebook alertaram várias vezes a empresa sobre a disseminação de conteúdos com desinformação, discurso de ódio e conspiração sobre a votação antes das eleições americanas de novembro. Documentos obtidos pela reportagem mostram que, mesmo com os pedidos de ação, a companhia falhou ou relutou em resolver os problemas.
Algoritmos do Facebook incentivam extremismos
Uma reportagem da NBC News, publicada em 22 de outubro, mostra que o Facebook sabe há muito tempo que seus algoritmos e sistemas de recomendação incentivam extremismos.
Um relatório chamado “Carol’s Journey to QAnon” (Jornada de Carol ao QAnon, em tradução do inglês) detalha um experimento desenvolvido por um pesquisador do Facebook: foi criada uma conta fictícia de uma usuária chamada Carol Smith, descrita como uma mãe politicamente conservadora da cidade Wilmington, Carolina do Norte. A pesquisa mostra que, embora a pessoa imaginária nunca tenha expressado interesse em teorias da conspiração, em apenas dois dias o Facebook recomendou que ela participasse de grupos dedicados ao QAnon, movimento conspiratório criado pela extrema-direita americana pró-Trump.
Reação tardia ao movimento ‘Stop the Steal’
Arquivos revelados pela CNN em 23 de outubro indicam que o Facebook estava “fundamentalmente despreparado” para conter o “Stop the Steal”, movimento que alegava que a eleição foi fraudada contra Trump e que desempenhou papel central no ataque ao Capitólio em 6 de janeiro nos EUA. Com indicações de tempo, um documento mostra medidas que funcionários do Facebook estavam implementando tardiamente e revela que a empresa só realmente entrou em ação depois que o movimento se tornou violento.
Violência no ataque ao Capitólio
O Washington Post divulgou em 22 de outubro arquivos com novos detalhes do papel do Facebook no fomento à invasão do Capitólio. A reportagem mostra mensagens trocadas internamente por funcionários do Facebook, questionando a responsabilidade da empresa no ataque. “Temos lido postagens [de despedida] de colegas de confiança, experientes e amados que escrevem que simplesmente não conseguem trabalhar para uma empresa que não faz mais para mitigar os efeitos negativos em sua plataforma”, teria escrito um dos funcionários.
Algoritmo aumenta alcance de conteúdos de ódio
O primeiro pacote de documentos começou a ser revelado em setembro pelo Wall Street Journal. Um deles mostra que conteúdos que fomentam o ódio, a intolerância e até mesmo a desinformação tendem a viralizar mais do que outras postagens na rede social.
Em 2018, a rede social de Mark Zuckerberg estava passando por uma queda no engajamento dos usuários, o que levou à criação de um mecanismo chamado “meaningful social interactions” (em tradução livre, algo como “interações sociais significativas”). Esse mecanismo cria um “score” e atribui às publicações pontos que variam de acordo com seu conteúdo.
Nesse score, posts que geram engajamento de cunho “negativo” são privilegiados. Por exemplo, postagens com mais reações com emojis de “raiva” ou reclamações nos comentários ganhavam mais pontos do que as “neutras” ou positivas. Quanto mais pontos, maiores seriam as chances de o post aparecer no feed de outros usuários, ganhando, portanto, mais alcance.
Instagram afeta a saúde mental de adolescentes
Outro relatório interno da empresa divulgado pelo Wall Street Journal indica que o Instagram, aplicativo do Facebook, causa impacto na autoestima e saúde mental de adolescentes: uma pesquisa do Facebook realizada em março de 2020 apontou que ao menos 30% das meninas que usam Instagram se sentiam mal com o próprio corpo ou ficavam ainda piores depois de acessar a rede. Entre as últimas revelações, o impacto do app em adolescentes tem sido o tema mais debatido no Congresso americano.
Lista VIP
Há também a informação de que a rede social teria um peso e duas medidas, dependendo do usuário, sobre como as regras do site são aplicadas. Os documentos revelam a existência de uma “lista VIP” de usuários que escapam das políticas e termos de uso das plataformas. Essas personalidades, que vão desde o ex-presidente americano Donald Trump até o jogador Neymar, contam com uma espécie de “passe livre” quando postam conteúdos que violam as políticas da empresa.
Ou seja, as pessoas dessa lista estão sujeitas a um tipo mais brando de moderação no Facebook (que, em condições normais, poderia excluir imediatamente um post com conteúdo sensível ou até suspender temporariamente a conta). Além disso, as “regalias” da lista VIP incluíam alguns cuidados extras, como a possibilidade de receber um aviso particular do Facebook para deletar algum conteúdo antes que a plataforma pudesse fazê-lo.
Tráficos humano e de drogas ‘escapam’
Também segundo o Wall Street Journal, moderadores do Facebook vinham acompanhando com preocupação o uso da rede social por traficantes de drogas e organizações criminosas envolvidas com o tráfico de pessoas ao redor do mundo. Embora esses conteúdos muitas vezes fossem interceptados por funcionários da empresa, o Facebook não conseguia eliminá-los completamente, diz o jornal.
Esse posicionamento permitiu, por exemplo, que um cartel mexicano de drogas recrutasse membros para uma facção criminosa ou que mulheres do leste europeu fossem submetidas a regimes análogos à escravidão em trabalhos de prostituição.
Violência contra minorias
Outra revelação sobre a rede social mostrada pelo Wall Street Journal – e que ganhou ainda mais destaque com o depoimento de Frances Haugen no Senado americano – foi o papel do Facebook nas tensões políticas em países como Etiópia e Mianmar.
No mês de junho, uma investigação da organização de direitos humanos Global Witness já havia apontado que os algoritmos do Facebook ajudaram a promover e incitar a violência em Mianmar, enquanto o país lidava com a tensão política do golpe militar que derrubou o governo eleito no início deste ano. Lá, quando um usuário curtia uma página de apoio aos militares do país, por exemplo, o próprio Facebook já recomendava ao usuário outras páginas com o mesmo teor, embora estas não necessariamente obedecessem às políticas de uso da rede, já que promoviam o ódio e a violência.
Na Etiópia, que atualmente enfrenta uma guerra civil, a situação é parecida: os algoritmos do Facebook também são apontados como co-responsáveis pela escalada do discurso de ódio e a incitação à violência entre a população.
FONTE: Estadão Conteúdo/Via Terra