O Facebook removeu 22,1 milhões de conteúdos sobre o discurso de ódio no terceiro trimestre deste ano, enquanto o Instagram retirou 6,5 milhões no mesmo período, anunciou esta quinta-feira a empresa detentora das duas redes sociais.
"Hoje estamos a publicar o nosso relatório de aplicação dos padrões de comunidade para o terceiro trimestre", referiu o Facebook, num documento que fornece métricas sobre a forma como a rede social aplicou as suas políticas entre julho e setembro deste ano.
De acordo com o relatório, no terceiro trimestre o Facebook removeu 22,1 milhões de peças de conteúdo de discurso de ódio, das quais 95% foram proativamente identificadas (detetadas pela própria rede social).
No mesmo período, foram removidos 6,5 milhões de conteúdos do mesmo género no Instagram (tinham sido 3,2 milhões no segundo trimestre), sendo que a maioria (95%) foi proativamente detetada, contra 85% nos três meses anteriores.
No que respeita a peças de conteúdo violento e gráfico, foram removidos 19,2 milhões (acima dos 15 milhões no segundo trimestre) no Facebook.
Ainda nesta plataforma, foram removidos 12,4 milhões de peças de nudez infantil e conteúdo de exploração sexual (9,5 milhões no segundo trimestre) e 3,5 milhões de conteúdos relativos a 'bullying' e assédio (acima dos 2,4 milhões no segundo trimestre).
No terceiro trimestre, o Instagram removeu 4,1 milhões de peças de conteúdo violento e gráfico (acima de 3,1 milhões no trimestre anterior) e um milhão sobre nudez infantil e conteúdo de exploração sexual (acima dos 481 mil nos três meses anteriores).
No que respeita a conteúdos relativos a 'bullying' e de assédio, foram retirados 2,6 milhões, ligeiramente acima dos 2,3 milhões no trimestre anterior.
Por fim, o Instagram retirou 1,3 milhões de peças sobre suicídio e automutilação (acima dos 277.400 no segundo trimestre).
O aumento da taxa de deteção proativa no discurso de ódio no Instagram "foi conduzida, em parte, pela melhoria da nossa tecnologia" para o inglês, árabe e espanhol, "e expansão da tecnologia de automação", refere o Facebook.
"Esperamos flutuações nestes números à medida que continuamos a adaptar-nos aos desafios da covid relacionados com a força de trabalho", adianta a rede social.
O Facebook atualizou hoje também os padrões de comunidade do 'website' para incluir políticas adicionais.
Por exemplo, o Facebook passa a exigir informação adicional, nomeadamente de um membro familiar, antes de remover a conta de uma pessoa falecida.
Outras políticas já foram anunciadas anteriormente, como aquela que proíbe de colocar 'posts' de desinformação e de rumores não verificados que contribuem para o risco de violência iminente ou de danos físicos.