Nuevo algoritmo de Facebook que afectara a los "grupos"

Nuevo algoritmo de Facebook que afectara a los "grupos"

Facebook está agregando nuevas reglas destinadas a frenar la propagación de la desinformación y otros contenidos dañinos en su función Grupos.

A partir de ahora, si se elimina un grupo por infringir las políticas de Facebook, sus miembros y administradores no podrán crear temporalmente nuevos grupos. Si un grupo no tiene administradores, se archivará.

Y Facebook no incluirá ningún grupo relacionado con la salud en sus recomendaciones.

Los grupos de Facebook han sido culpados por difundir la desinformación y las conspiraciones, especialmente cuando el algoritmo de recomendación de Facebook los promueve. Y las nuevas reglas de la compañía amplían los esfuerzos existentes para controlarlos. Los administradores ya estaban prohibidos de crear un nuevo grupo similar a uno prohibido, por ejemplo.

Algunas de las nuevas políticas fomentan una administración más activa de los grupos. Si los administradores se apartan, pueden invitar a los miembros a ocupar su lugar; si nadie lo hace, Facebook aparentemente «sugerirá» roles de administrador a los miembros, luego archivará el grupo si eso falla.

Además, si los miembros del grupo acumulan una infracción de las normas de la comunidad, los moderadores tendrán que aprobar todas sus publicaciones durante 30 días. Si los moderadores aprueban repetidamente publicaciones que infringen las directrices de Facebook, el grupo podría eliminarse.

Las directrices de salud toman un enfoque más amplio centrándose en toda una categoría de contenido, no en un comportamiento específico de separación de reglas.

Facebook dice que aunque los grupos pueden «ser un espacio positivo para dar y recibir apoyo durante circunstancias difíciles de la vida… Es crucial que las personas obtengan su información de salud de fuentes autorizadas».

La compañía ha tratado de limitar la propagación del contenido anti-vacunación y la desinformación del coronavirus a través de otros métodos ya, incluyendo la adición de información contextual a los mensajes que discuten COVID-19 y la colocación de banners en las páginas relacionadas con la vacunación. Aun así, su tamaño lo ha convertido en un poderoso vector para historias de salud falsas.

Facebook también dice que sigue limitando el contenido de los grupos de milicianos y otras organizaciones vinculadas a la violencia. Los grupos que discutan la violencia potencial serán eliminados, y pronto reducirán el rango incluso contenido no violador en la sección de noticias. La compañía ha luchado, sin embargo, para definir los límites del contenido ofensivo, incluyendo publicaciones de un grupo de milicianos auto-descrito en Kenosha, Wisconsin, donde un partidario de la milicia de 17 años mató a dos personas durante una noche de protestas.