Ícone do site Acre Notícias

Moderação no Facebook e Instagram, uma longa história de experimentos e reversões

A questão da moderação de conteúdo sempre foi uma dor de cabeça para o Facebook. A empresa foi pega no fogo cruzado desde o início.

Por um lado, a sua relutância – decorrente da sua cultura essencialmente americana – em censurar o discurso, bem como os custos financeiros e políticos significativos associados a esta actividade. Por outro lado, a necessidade muito pragmática de limitar as pressões – por vezes contraditórias – exercidas pela sociedade civil, pelo pessoal político e até pelos anunciantes, de quem retira a maior parte dos seus rendimentos.

Resultado: políticas de moderação com geometria variável, compostas por experimentos diversos e reversões variadas. Os últimos anúncios de Mark Zuckerberg na terça-feira, 7 de janeiro, incluindo a eliminação de um programa de verificação de factos ou o relaxamento das regras contra o discurso de ódio, não são exceção à regra.

“Automação é a solução”

Surgida em meados da década de 2010, a detecção automática de conteúdos que violam as regras do Facebook há muito que é apresentada pelos executivos da empresa como uma solução milagrosa – rápida ou mesmo preventiva, barata, aplicável à escala de milhares de milhões de utilizadores da rede – com conteúdos problemáticos. .

O Facebook e depois o Meta investiram assim recursos significativos no desenvolvimento de algoritmos capazes de “compreender” os textos publicados pelos seus utilizadores. Inicialmente pouco fiáveis, reservados aos conteúdos mais fáceis de moderar, como imagens de natureza sexual, foram gradualmente alargados a um número crescente de tipos de conteúdos, nomeadamente aqueles que exigem nuances e uma compreensão detalhada do contexto do conteúdo, como o ódio. discurso.

Leia também | Artigo reservado para nossos assinantes Depois de Musk e Bezos… Zuckerberg: tecnologia em funcionamento por trás de Trump

Mesmo que o uso desta tecnologia tenha sido justamente criticado – por ser ineficaz, por censurar demais ou não o suficiente – ela assumiu um lugar central no sistema de moderação da plataforma: seja excluindo diretamente conteúdos, seja trazendo-os ao conhecimento de moderadores humanos.

Você ainda tem 79,7% deste artigo para ler. O restante é reservado aos assinantes.



Leia Mais: Le Monde

Sair da versão mobile