A pandemia afetou o controlo de conteúdos que violam as politicas e padrões das duas redes sociais do Facebook. As regras de confinamento obrigaram a confiar na tecnologia para essa moderação, mas o relatório trimestral da empresa sublinha que o papel humano ainda é essencial.
O Facebook publicou a sexta edição do Relatório de Aplicação dos Padrões da Comunidade, detalhando a aplicação das políticas e padrões da comunidade entre abril e junho de 2020 nas suas redes sociais do Facebook e Instagram.
O relatório mostra o impacto da COVID-19 na moderação de conteúdos e demonstra que, embora a sua tecnologia para identificar e remover conteúdo que viola as regras da plataforma tenha sido melhorada, continuará a haver áreas em que são necessárias pessoas para rever o conteúdo e treinar a tecnologia.
Devido à pandemia, o Facebook enviou os seus revisores de conteúdo para casa, em março, e confiou mais na tecnologia para rever o conteúdo online, uma decisão que acabou por se revelar desajustada e obrigou a que muitos revisores voltassem ao trabalho a partir das suas casas.
O uso da tecnologia incide em conteúdo mais impactante e de alta gravidade, especialmente o conteúdo que se sabe que terá muitas visualizações ou se tornará viral. Já o papel humano torna-se essencial para analisar o conteúdo de suicídio, automutilação e exploração infantil, e para ajudar a melhorar a tecnologia que encontra e remove proactivamente conteúdo idêntico que viole as suas políticas.
Com menos revisores de conteúdo, o Facebook acabou por intervir em menos posts sobre suicídio, automutilação, nudez infantil e exploração sexual no Instagram. Também o número de denúncias foi menor e nem sempre foi possível dar resposta a todas as situações.
Apesar dessas reduções, o relatório do Facebook sublinha que “implementou medidas em relação ao conteúdo mais grave dentro dessas categorias. O foco continua em encontrar e remover esse tipo de conteúdo, melhorando a capacidade do revisor da forma mais rápida e segura possível”.
“À medida que a pandemia de COVID-19 evolui, o Facebook continuará a adaptar o processo de revisão de conteúdo e a trabalhar para melhorar a sua tecnologia, ao mesmo tempo que trará mais revisores de volta ao trabalho, de forma remota” salienta o comunicado.
Tecnologia deteta 95% dos conteúdos com discurso de ódio
Embora o impacto da pandemia tivesse prejudicado o papel humano no controlo dos conteúdos na rede social, as melhorias na tecnologia permitiram ao Facebook atuar em mais conteúdo em algumas áreas e aumentar a taxa de deteção proactiva em áreas onde a automação já é eficaz.
Segundo o relatório, a taxa de deteção proactiva de discurso de ódio no Facebook aumentou 6 pontos, de 89% para 95%, durante o segundo trimestre de 2020. Por sua vez, a quantidade de conteúdo intercetado aumentou de 9,6 milhões no primeiro trimestre para 22,5 milhões no segundo trimestre. Isso porque o Facebook expandiu a sua tecnologia de automação para espanhol, árabe e indonésio e fez melhorias na tecnologia de deteção de inglês no primeiro trimestre. No segundo trimestre, as melhorias nos recursos de automação ajudaram também o Facebook a agir em mais conteúdo em inglês, espanhol e birmanês.
No Instagram, a taxa de deteção proactiva de discurso de ódio aumentou 39 pontos, de 45% para 84%, e a quantidade de conteúdos em que o Facebook atuou aumentou de 808.900 no 1º trimestre de 2020 para 3,3 milhões no 2º trimestre. Esses aumentos foram impulsionados pela expansão das tecnologias de deteção proactiva em inglês e espanhol.
Outra área onde foram detetadas grandes melhorias devido à tecnologia do Facebook foi no conteúdo de terrorismo. A quantidade de conteúdo sobre o qual o Facebook atuou aumentou de 6.3 milhões no primeiro trimestre para 8.7 milhões no segundo trimestre de 2020. E devido às melhorias na tecnologia e ao regresso de alguns revisores ao trabalho, houve também melhorias na quantidade de conteúdo sobre o qual o Facebook agiu em relação ao ódio organizado no Instagram, e bullying e assédio no Facebook e Instagram.
“O Facebook tem feito progressos no combate ao ódio nas suas aplicações, mas sabe que ainda há trabalho para fazer, para assegurar que toda a gente se sente confortável em usar os seus serviços”, sublinha o comunicado da rede social.
O Facebook está a atualizar as suas políticas para intercetar certos tipos de estereótipos prejudiciais que são usados para atacar, intimidar ou excluir grupos específicos, assim como continua a priorizar a remoção de conteúdo que viole a sua política contra grupos de ódio. Desde outubro de 2019, o Facebook fez 14 interrupções estratégicas de rede para remover 23 organizações proibidas, mais de metade das quais apoiava a supremacia branca.
A rede social pretende ainda solicitar uma auditoria independente, em 2021, para validar os números que publicados no Relatório de Aplicação dos Padrões da Comunidade e criou o Instagram Equity Team e o Facebook Inclusive Product Council, para garantir que os seus produtos são justos e inclusivos. Também o Conselho Consultivo de Diversidade desempenhará um papel importante nos seus processos de tomada de decisão.