YouTube traz de volta moderadores humanos após censura dos sistemas de inteligência artificial

O uso crescente de filtros automatizados levou ao dobro de remoções de conteúdo incorretas. O YouTube diz que está trazendo de volta moderadores humanos que foram “colocados offline” durante a pandemia depois que os filtros de IA da empresa não conseguiram igualar sua precisão.

YouTube traz de volta moderadores humanos após censura dos sistemas de inteligência artificial
Foto: (reprodução/internet)

Em março, o YouTube disse que confiaria mais em sistemas de aprendizagem de máquinas para sinalizar e remover conteúdo que violasse suas políticas em coisas como discurso de ódio e desinformação. Mas o YouTube disse ao Financial Times esta semana que o maior uso da moderação da IA tinha levado a um aumento significativo nas remoções de vídeos incorretos.

Cerca de 11 milhões de vídeos foram removidos do YouTube entre abril e junho, diz o FT, ou cerca do dobro da taxa usual. Cerca de 320.000 desses registros foram apelados, e a metade dos vídeos apelados foi reintegrada. 

Novamente, o FT diz que isso é aproximadamente o dobro do valor usual: um sinal de que os sistemas de IA foram excessivamente zelosos em suas tentativas de detectar conteúdo nocivo.

Como o diretor de produtos do YouTube, Neal Mohan, disse ao FT:

 “Uma das decisões que tomamos [no início da pandemia] quando se tratava de máquinas que não podiam ser tão precisas quanto os humanos, íamos errar ao lado de garantir que nossos usuários estivessem protegidos, mesmo que isso pudesse ter resultado em [um] número um pouco maior de vídeos descendo”.

Esta admissão de fracasso é notável. Todas as principais plataformas sociais on-line, do Twitter ao Facebook e ao YouTube, têm estado cada vez mais sob pressão para lidar com a disseminação de conteúdo odioso e enganoso em seus sites. E todos têm dito que filtros algorítmicos e automatizados podem ajudar a lidar com a imensa escala de suas plataformas.

O grande desafio das grandes empresas de tecnologia

No entanto, repetidamente, os especialistas em IA e moderação têm manifestado ceticismo sobre essas afirmações. Julgar se um vídeo sobre, digamos, teorias conspiratórias contém acenos sutis para crenças racistas pode ser um desafio para um humano, dizem, e os computadores não têm nossa capacidade de entender o contexto cultural exato e a nuança dessas afirmações. 

Leia também: Facebook busca excluir informações enganosas de sua plataforma

Os sistemas automatizados podem detectar os infratores mais óbvios, o que é sem dúvida útil, mas os seres humanos ainda são necessários para os julgamentos mais refinados.

Mesmo com decisões mais simples, as máquinas ainda podem cometer erros.  Em maio, por exemplo, o YouTube admitiu que estava apagando automaticamente comentários contendo certas frases críticas do Partido Comunista Chinês (CCP). Mais tarde, a empresa culpou um “erro com nossos sistemas de fiscalização” pelos erros.

Mas, como disse Mohan ao FT, os sistemas de aprendizagem de máquinas têm definitivamente seu lugar, mesmo que seja apenas para remover os infratores mais óbvios. 

“Mais de 50% desses 11 milhões de vídeos foram removidos sem uma única visualização por um usuário real do YouTube e mais de 80% foram removidos com menos de 10 visualizações”, disse ele. “E assim é o poder das máquinas”.

Traduzido e adaptado por equipe Revolução.etc.br

Fontes: The Verge, Financial Times