El Consejo asesor de Meta está utilizando cuatro casos abiertos relacionados con el discurso de odio en sus plataformas para estudiar su nueva normativa de moderación de contenidos e insiste en que puede intervenir en las decisiones que tome la propietaria de Facebook e Instagram, a pesar de que tiene una influencia limitada en sus políticas generales.La compañía anunció en enero un cambio en su sistema de moderación, con el que dejaría de utilizar los verificadores externos para apostar por el programa de las notas de la comunidad, dos enfoques diferentes para abordar el problema de la des