La Junta de Supervisión de Meta intensifica el informe de negación del Holocausto

La Junta de Supervisión de Meta intensifica el informe de negación del Holocausto


Junta de Supervisión de Meta ha puesto en el punto de mira un nuevo caso que considera relevante para sus prioridades estratégicas. En una publicación, la junta anunció que durante las próximas semanas revisará y aceptará comentarios públicos para un caso que apela la no eliminación de contenido por parte de Meta. que niega el holocausto en sus plataformas. En concreto, este caso se refiere a una publicación que circula en Instagram que pone un globo de diálogo sobre una imagen con Calamardo, personaje de Bob Esponja, negando que hubiera ocurrido el Holocausto. Su título y hashtags también estaban dirigidos a «audiencias geográficas específicas».

La publicación fue publicada originalmente por una cuenta con 9.000 seguidores en septiembre de 2020 y fue vista alrededor de 1.000 veces. Unas semanas después, Meta revisó sus políticas de contenido para prohibir la negación del Holocausto. A pesar de las nuevas reglas y de que varios usuarios lo informaron, la publicación no se eliminó rápidamente. Algunos de los informes se cerraron automáticamente debido a las «políticas de automatización relacionadas con COVID-19» de la compañía, que se implementaron para que el número limitado de revisores humanos de Meta pueda priorizar los informes considerados de «alto riesgo». A otros periodistas se les dijo automáticamente que el contenido no viola las políticas de Meta.

Uno de los usuarios que denunció la publicación optó por apelar el caso ante la Junta, que ha determinado que está en línea con sus esfuerzos por priorizar el «discurso de odio contra grupos marginados». La Junta ahora está buscando comentarios sobre varios temas relevantes, como el uso de la automatización para tomar con precisión medidas coercitivas contra el discurso de odio y la utilidad de los informes de transparencia de Meta.

En una publicación en la página de transparencia de Meta, la compañía admitió que dejó el contenido después de la revisión inicial. Sin embargo, finalmente determinó que lo abandonaron por error y que violó su política de incitación al odio. Desde entonces, la compañía eliminó el contenido de sus plataformas, pero prometió implementar la decisión de la junta. La Junta de Supervisión de Meta puede emitir recomendaciones de políticas basadas en su investigación, pero no son vinculantes y la empresa no está obligada a seguirlas. Con base en las preguntas que la Junta quiere que el público responda, podría evocar recomendaciones que cambiarían la forma en que Meta usa la automatización para controlar Instagram y Facebook.



Fuente: engadget.com

Deja una respuesta

*

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad