Facebook usa IA para classificar conteúdo e ter moderação mais rápida

O Facebook sempre deixou claro que quer inteligência artificial para lidar com tarefas mais moderadas em suas plataformas. Hoje (13), anunciou seu último passo rumo a esse objetivo: colocar a aprendizagem de máquinas para lidar com a moderação de conteúdo.

Facebook usa IA para classificar conteúdo e ter moderação mais rápida
Foto: (reprodução/internet)

Como a moderação funciona no Facebook

As mensagens que são pensadas para violar as regras da empresa (o que inclui tudo, desde spam até discurso de ódio e conteúdos que incentivam a violência) são sinalizadas, seja pelos usuários ou pelos filtros de aprendizado de máquina.

Alguns casos são tratados automaticamente (as respostas podem envolver a remoção de um post ou o bloqueio de uma conta, por exemplo) enquanto os demais entram em uma fila para revisão por moderadores humanos.

O Facebook emprega cerca de 15.000 desses moderadores em todo o mundo, e tem sido criticado no passado por não dar apoio suficiente a esses trabalhadores. Seu trabalho é classificar através de posts sinalizados e tomar decisões sobre se eles violam ou não as diversas políticas da empresa.

Classificação de posts na plataforma

No passado, os moderadores revisavam os posts cronologicamente, lidando com eles na ordem em que eram relatados.

Agora, o Facebook diz que quer garantir que as postagens mais importantes sejam vistas primeiro, e está usando o aprendizado por máquina para ajudar.

No futuro, vários algoritmos de aprendizagem de máquinas serão usados para classificar os posts, priorizando-os com base em três critérios: sua viralidade, sua severidade e a probabilidade de que eles estejam quebrando as regras.

Os algoritimos do Facebook

Exatamente como estes critérios são ponderados não é claro, mas o Facebook diz que o objetivo é lidar primeiro com os posts mais prejudiciais. Portanto, quanto mais viral for um post (quanto mais ele for compartilhado e visto), mais rápido ele será tratado.

O mesmo se aplica à severidade de um post. O Facebook diz que ele classifica os posts que envolvem danos reais como os mais importantes.

Leia também: A longa e interminável luta do Facebook contra a desinformação

Isso pode significar conteúdo envolvendo terrorismo, exploração infantil ou multilção. Posts como spam, entretanto, são classificados como menos importantes para revisão.

As ferramentas do Facebook contra a desinformação

O Facebook compartilhou alguns detalhes sobre como seus filtros de aprendizado de máquina analisam as postagens.

Estes sistemas incluem um modelo chamado “WPIE”, que significa “incorporação de integridade de postagens inteiras” (whole post integrity embeddings em inglês) e adota o que o Facebook chama de uma abordagem “holística” para avaliar o conteúdo.

Leia mais: Parler: Rede social é a versão sem regras do Facebook e do Twitter

Isto significa que os algoritmos julgam vários elementos em qualquer post em conjunto, tentando descobrir o que a imagem, legenda, post revelam em conjunto.

Traduzido e adaptado por equipe Revolução.etc.br

Fontes: The Verge, Facebook Blog