Facebook ha tomado medidas para hacer más seguros frente a la violencia y la desinformación los grupos de su red social homónima, de los que
eliminó 12 millones de contenidos por discurso del odio en el último año, y ha comenzado a exigir que los grupos tengan un administrador o comenzará a eliminarlos pasado un tiempo.La plataforma propiedad de Mark Zuckerberg ha endurecido las sanciones que aplica a los miembros de grupos que no respetan sus normas de su comunidad, como ha anunciado Facebook en un comunicado.De esta manera, los administradores y creadores de grupos sancionados no podrán crear nuevos grupos durante un tiempo determinado, y quienes vulneren las normas del grupo necesitarán recibir la aprobación del moderador para que sus publicaciones sean visibles en los siguientes 30 días.Para asegurar esta norma,
la red social comenzará a exigir que los grupos tengan un administrador en situaciones en las que estos abandonan el grupo, y enviará sugerencias a usuarios. Después de un tiempo no determinado, si los grupos siguen sin administrador quedarán archivados.Facebook eliminó durante
el último año 1,5 millones de contenidos en los grupos de su red social por actividades de odio y 12 millones por discurso del odio, y la compañía eliminó un millón de grupos por este motivo, según datos de la red social.La compañía estadounidense ha anunciado otras medidas contra los grupos que promueven la violencia y los ha excluido de las recomendaciones, restringido en búsquedas y en el futuro reducirá su visibilidad en el 'feed' de noticias.Estos grupos
se eliminarán de forma automática cuando comiencen a hablar de llegar a la violencia de forma real, incluso si hacen uso de símbolos y términos velados. Esta política se usó para eliminar 709 grupos relacionados con el movimiento extremista de ultraderecha estadounidense QAnon.