YouTube explica processo de remoção de conteúdo da plataforma

Luiz Nogueira, editado por Liliane Nakagawa
YouTube Popular (iStock)
Compartilhe com seus seguidores

Empresa divulgou conjunto de normas que são seguidas para detecção e remoção de conteúdo nocivo e que viola suas diretrizes

Nos últimos anos, grandes companhias estão em processo de atualização de seus códigos de conduta com o objetivo de tornar suas plataformas locais mais seguros. O YouTube, por exemplo, colocou em prática um conjunto de novas medidas que removeram diversos vídeos e canais que apresentavam conteúdo considerado nocivo e que continham material com temática odioso.


Para exemplificar como esse processo é realizado, o YouTube divulgou, na última terça-feira (3), quais são as quatro medidas adotadas para que a plataforma seja aprimorada aos usuários. As quatro medidas são: remover, elevar, recompensar e reduzir. Por enquanto, o site de compartilhamento de vídeos divulgou a explicação do primeiro princípio, "remover", os outros serão explicados nas próximas semanas.

Em sua definição, o princípio de "remover" acontece quando a plataforma identifica e remove conteúdo que viola suas normas de uso. A empresa informa que esse procedimento é realizado desde o começo do YouTube, mas que eles estão investindo mais nessa ação nos últimos anos.

Verificação de conteúdo

Antes de realizar a remoção, o YouTube se certifica de que a decisão é correta. Para isso, o site possui uma equipe especializada designada especialmente para realizar este procedimento. Eles ressaltam que sempre procuram preservar a liberdade de expressão de seus usuários.

Quando se trata de discurso de ódio, a empresa explica que trabalhou meses desenvolvendo os treinamentos necessários para que a identificação dessa prática fosse eficaz. As equipes que realizam essa remoção, fazem o procedimento com base nas diretrizes e no que foi apontado pelo sistema com base no aprendizado de máquina.

Segundo dados divulgados pela plataforma, estima-se que, entre abril e junho deste ano, mais de 100 mil vídeos foram removidos por promoverem discurso de ódio. Além disso, mais de 17 mil canais foram tirados do ar e 500 milhões de comentários deletados.

Tecnologia de detecção

O YouTube trabalha desde 2017 na colaboração entre equipes humanas e a tecnologia para que conteúdos impróprios sejam sinalizados. A companhia explica que usa bancos de dados para aumentar as chances de identificação de conteúdo nocivo ainda durante seu upload.

O aprendizado de máquina também é bastante utilizado, ainda que seus apontamentos tenham de ser analisados por humanos, já que, em alguns casos, as afirmações dependam do contexto de uma situação.

Como forma de provar a eficácia de seu sistema, o YouTube informou que, dos nove milhões de vídeos removidos neste ano, 87% foram sinalizados por seus sistemas. O grande objetivo do YouTube é o de garantir que esse tipo de conteúdo seja removido antes que seja visualizado e compartilhado por milhares de pessoas. No primeiro semestre deste ano, mais de 80% do conteúdo removido, e que violava as diretrizes do site, foi feito antes da publicação.

Fonte: YouTube Blog

Segurança Youtube Vídeo
Curtiu esse conteúdo? Assine nossas newsletters e fique por dentro do que acontece em primeira mão!
Compartilhe com seus seguidores
Assine nossa newsletter!
Parabéns! Sua assinatura foi recebida com sucesso!
Atenção: Em instantes você receberá um email de confirmação da assinatura. Para efetivá-la, clique no link de confirmação que você receberá. Verifique também sua caixa de SPAM, pois por se tratar de um email automático, seu servidor de emails poderá identificar incorretamente a mensagem como não solicitada.