2021-006-IG-UA

Apoyo a Abdullah Öcallan
Para consultar la decisión completa, .

País:
Estados Unidos

Fecha:
8 de julio de 2021

Resumen:
Un usuario de Instagram publicó una foto de Abdullah Öcalan, un miembro fundador del Partido de los Trabajadores de Kurdistán (PKK), un grupo señalado como organización peligrosa de conformidad con las políticas de Facebook. Bajo la foto, el usuario escribió que ya era hora de hablar del fin del aislamiento en prisión de Öcalan en Turquía.

Un moderador eliminó la publicación amparado en las reglas de Facebook sobre personas y organizaciones peligrosas, por considerarse una incitación de apoyo a Öcalan y al PKK. El usuario apeló y un segundo moderador confirmó la primera decisión.

Cuando el consejo seleccionó el caso, Facebook informó que accidentalmente una parte de la pauta interna de la política sobre personas y organizaciones peligrosas no se trasladó a un nuevo sistema de revisión en 2018. Dicha pauta permitía la discusión de las condiciones de reclusión de personas peligrosas.

Cuatro meses después de la publicación, Facebook restauró el contenido en Instagram y le informó al Consejo que estaba trabajando para actualizar sus políticas a fin de permitir que los usuarios debatan sobre los derechos humanos de personas peligrosas.

Decisión:
Revocar

Justificación:
La publicación era válida porque se ubicaba dentro de una de las excepciones a la política de personas y organizaciones peligrosas, pese a que esa excepción se había extraviado en una operación interna de la compañía.

Dado que solo hasta este caso Facebook cayó en cuenta de su error, el Consejo consideró que era posible que se hubieran eliminado por equivocación muchas publicaciones que no infringían las normas comunitarias.

Aunque no se hubiera descubierto la falla de Facebook, el contenido era legítimo porque no respaldaba a Öcalan ni al PKK, sino que ponía de manifiesto inquietudes sobre los derechos humanos de una persona presa.

Normas relevantes:
Personas y organizaciones peligrosas
Search
Recomendaciones
Respuestas
1
Restablecer la pauta extraviada en 2017 en las normas de implementación interna y en las preguntas frecuentes dispuestas para los moderadores de contenido.
La implementará plenamente.
Facebook restaurará la pauta extraviada y capacitará a sus revisores.
Tiene previsto terminar de distribuir las pautas internas entre sus revisores en las próximas dos semanas.
2
Evaluar los procesos de moderación automatizados para la aplicación de la política de personas y organizaciones peligrosas. De ser necesario, actualizar los clasificadores para excluir datos de capacitación del periodo anterior a que se cometieran los errores de aplicación de la política.
No tomará ninguna acción.
Facebook no tendrá en cuenta esta recomendación porque en este caso las pautas internas no contribuyen directamente al desempeño de los procesos de moderación automatizados.
3
Publicar resultados de la revisión en curso para determinar si se pasó por alto alguna otra política, describir todas las políticas extraviadas, el periodo en el que se extraviaron y las medidas tomadas para restablecerlas.
La implementará parcialmente.
Facebook asegura estar adelantando un proceso de revisión interna para confirmar que todas sus políticas están siendo implementadas por sus revisores.
Espera terminar esa revisión para el final del 2021.
4
Asegurar que las bases de la política de personas y organizaciones peligrosas reflejen que el respeto por los derechos humanos y la libertad de expresión pueden fomentar el valor de “seguridad”. Especificar en mayor detalle los daños en el mundo real que la norma busca evitar e interrumpir cuando se limita el valor de “expresión”.
La implementará plenamente.
Facebook se compromete a actualizar las bases de la política de Personas y organizaciones peligrosas con un lenguaje que deje claro que las discusiones de violaciones a derechos humanos y abuso, que se relacionen con personas y organizaciones peligrosas, no infringen las políticas.
La actualización se hará a finales de 2021.
5
Explicar en la norma lo que no se considera como apoyo a una persona u organización peligrosa.
La implementará plenamente.
Facebook aseguró que en junio de 2021 había añadido definiciones de términos clave a raíz de una recomendación hecha por el consejo en la decisión sobre el caso de “Nazi Quote”.
La compañía se comprometió a ofrecer pautas más detalladas a sus revisores.
Espera actualizar estas pautas para el final de 2021.
6
Explicar en las normas comunitarias la forma en la que los usuarios pueden dejar clara la intención de su publicación.
La implementará parcialmente.
De nuevo, la compañía adujo que a raíz de una recomendación del Consejo en el caso de “Nazi Quote”, había actualizado sus políticas para aclarar cómo los usuarios pueden dejar clara su intención.
7
Utilizar el Foro de políticas de productos de Facebook para garantizar la participación de partes interesadas en los cambios propuestos para la norma de personas y organizaciones peligrosas.
Facebook ya hace esta labor.
La compañía se comprometió a seguir atendiendo la opinión y recomendaciones externas.
8
Asegurarse de que los moderadores reciban capacitación y asesoramiento interno sobre los cambios propuestos para la política de personas y organizaciones peligrosas.
Facebook ya hace esta labor.
La compañía asegura que los moderadores reciben una orientación intensiva y son continuamente capacitados en todas las políticas, así como en sus actualizaciones.
9
Garantizar que los usuarios sean notificados cuando se elimine su contenido. Esta notificación debe indicar si la eliminación se debe a una solicitud gubernamental, a una infracción de las normas comunitarias o a un reclamo de un gobierno por la infracción de una ley.
La implementará plenamente.
Facebook se compromete a trabajar activamente para ofrecer notificaciones más detalladas a los usuarios cuando se restringe su contenido por la solicitud formal de un gobierno que aduce la infracción de una ley local. Dice que también lo hará en los casos en los que un gobierno reporte un contenido por infringir las normas comunitarias.
Espera informar del progreso de esta implementación en sus informes trimestrales.
10
Aclarar a los usuarios de Instagram que las normas comunitarias de Facebook se aplican de igual forma para Instagram.
La implementará plenamente.
Dice que a raíz de una recomendación en el caso 2020-004UA-2 que trataba de cáncer de seno y la política de Desnudos, está aclarando la relación general entre las Normas Comunitarias de Facebook y los lineamientos de Instagram.
Facebook se compromete a ofrecer información sobre sus avances para finales del 2021.
11
Indicar en los informes de transparencia la cantidad de solicitudes de eliminación de contenido presentadas por gobiernos en función de infracciones de las normas comunitarias, y el resultado de esas solicitudes.
La implementará plenamente.
Facebook se compromete a ofrecer información de transparencia adicional respecto al contenido que elimina por infringir las normas comunitarias a raíz de una solicitud gubernamental.
La compañía se plantea publicar esta información en una sección propia en el Transparency Center.
12
Incluir información más integral en los informes de transparencia sobre las tasas de errores en la aplicación de reglas sobre exaltación y apoyo de personas y organizaciones peligrosas, desglosada por región e idioma.
Evaluando viabilidad.
A raíz de una recomendación del Consejo en el caso 2021-003-FB-UA-3, Facebook ya se encontraba evaluando la posibilidad de recolectar las tasas de error en la aplicación de sus políticas, discriminadas de una nueva forma, como país y región.
Facebook manifiesta las dificultades de implementar esta recomendación, como tener que decidir a qué región pertenece un caso que involucra más de una locación, sobre todo cuando se trata de páginas y grupos, donde los administradores pueden vivir en lugares muy distintos.
También sigue evaluando la posibilidad de ofrecer categorías más granulares en la política de organizaciones y personas peligrosas. Advierte que ofrecer este nivel de detalle en la información puede no ser factible u óptimo porque sus sistemas no están diseñados para capturar información con tanta especificidad.
La compañía se compromete a informar sobre sus avances en este asunto mediante sus informes trimestrales.
There are no rows in this table

Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.