Empresa descontinuou o programa de verificação nos EUA em janeiro deste ano; CEO alega repreensão à liberdade de frase
O Parecer de Supervisão da Meta solicitou uma avaliação detalhada dos impactos da suspensão do programa de checagem de fatos nos EUA. A utensílio deixou de operar em janeiro deste ano, quando o CEO Mark Zuckerberg publicou um vídeo sobre a decisão, afirmando que a medida seria para “voltar às raízes em relação à liberdade de frase”.
Segundo a AFP, a orientação do recomendação se dá em momento de preocupação da empresa com a moderação de teor e a proteção dos direitos humanos. Criado em 2020, o órgão atua de maneira independente e funciona porquê um tribunal para disputas de teor.
Segundo a solicitação, a Meta deve calcular a eficiência das “notas da comunidade” na presença de a verificação de fatos, mormente em situações onde a desinformação ameace a segurança das pessoas. A big tech substituiu a checagem por um sistema que permite aos usuários a soma de esclarecimentos ou contextos em publicações que necessitem de mais informações.
Outrossim, a organização citou a falta de avaliação pública adequada sobre os impactos potenciais da suspensão do sistema nos direitos humanos e a urgência de maior transparência.
A empresa revisou suas políticas de moderação de teor desde o pregão da interrupção da verificação de fatos nos EUA. As alterações levaram a uma subtracção na remoção de postagens que poderiam infringir as normas da plataforma, afetando mormente conteúdos dirigidos a minorias sociais.
A Meta defendeu as mudanças ao declarar que muitos conteúdos foram “indevidamente censurados”.
“Os especialistas, porquê todo mundo, têm suas próprias inclinações e perspectivas. Isso ficou evidente nas escolhas que alguns fizeram sobre o que e porquê checar fatos. Um programa talhado a informar muitas vezes se tornou uma utensílio de repreensão”, disse a Meta em enviado.